(navigation image)
Home American Libraries | Canadian Libraries | Universal Library | Community Texts | Project Gutenberg | Children's Library | Biodiversity Heritage Library | Additional Collections
Search: Advanced Search
Anonymous User (login or join us)
Upload
See other formats

Full text of "Le Scienze, n. 393"

Fino a pochi anni fa conosciute solo da pochi 
specialisti, le malattie da prioni sono 
diventate uno spauracchio per i politici e una 
oscura minaccia peri consumatori. Ma qual 
è la verità su questa strana infezione? 




di Adriana Giannini 

Si sentono discriminati gli amanti della «fiorentina» divenuta fuo- 
rilegge dal 31 marzo e, in effetti, se nel nostro paese non si im- 
pedisce a un fanatico delle grosse cilindrate di acquistare l'auto 
dei suoi sogni o a un fumatore di perseverare nel suo vizio, non è 
ben chiaro perché si debbano proteggere con tanto rigore i man- 
giatori di costate. Il fatto è che qualcosa bisogna pur fare per ri- 
mediare al distacco con cui nel nostro paese si sono ascoltati 
negli anni passati gli allarmi provenienti dall'Inghilterra, dall'Irlanda, dal Porto- 
gallo, dalla Svizzera e dalla Francia, i paesi in cui - in ordine decrescente - sono 
stati riscontrati i casi più numerosi di mucca pazza. In effetti, fino al 2000 il no- 
| stro paese poteva vantare due soli casi segnalati nel 1994, casi che però sono 
| già diventati 11 nei primi tre mesi di quest'anno, da quando si è deciso di com- 
| piere.sui bovini di età superiore ai 30 mesi portati nei macelli, test rapidi segui- 
ci ti, in caso di non negatività, da test di conferma. 



3? 




Vedremo che cosa succederà nei prossi- 
mi mesi in quanto, da luglio, in tutta l'U- 
nione Europea i bovini di età superiore ai 
30 mesi dovranno essere sottoposti ai test 
per la BSE, oppure dovranno essere elimi- 
nati dalla catena alimentare. Una misura 
drastica, che alcuni paesi come Francia e 
Germania hanno messo in atto già a gen- 
naio e che in Germania ha previsto anche 
l'abbassamento dell'età a 24 mesi. 

Ma qua! è il rischio reale che i 1 82 507 
casi di BSE riscontrati fino al 3 1 gennaio 
200 1 in tutto il mondo si traducano in ca- 
si della temuta variante della malattia di 
Creutzfeldt-Jakob, l'encefalopatia umana 
indotta dai piloni infettivi bovini che por- 
ta in pochi anni alla demenza, all'invali- 
dità e alla morte? Come spiega Piero Par- 
chi nell'articolo a pagina 50, i fattori di ri- 
schio dipendono non solo dal ceppo di 
pilone infettivo, ma anche dalla predispo- 
sizione genetica degli individui. 

Qualche rassicurazione viene dal fatto 
che, come scrive Manfred Eigen nell'arti- 
colo a pagina 40, la probabilità del pas- 
saggio dei piloni patologici dalla specie 
bovina a quella umana esiste, ma è molto 
bassa. Gli 87 casi di variante umana della 
malattia sui 179000 bovini sicuramente 
affetti da BSE nel Regno Unito sono indi- 
cativi, ma non del tutto consolanti. La 
moltiplicazione del prione infettivo è in- 
fatti lenta, nell'ordine di anni, ma, d'altro 
lato, non disponiamo di metodi in grado 
di evidenziare la malattia nel sangue o in 
altri liquidi organici accessibili. Per ora, 
quindi, sia negli uomini sia negli animali 
la malattia si diagnostica con sicurezza 



GLI ENORMI VACUOLI visibili nella microfotografia della pagina precedente, eseguita presso i 
laboratori del Dipartimento di patologia animale dell'Università di Torino, sono il tipico segno della 
encefalopatia spongiforme bovina riscontrabile nel cervello degli animali macellati. 
I dati della tabella sottostante sono quelli ufficiali dell'Unione Europea a metà gennaio 2001 (sito: 
europa. eu.int/comm/food/bse/bse 26 en.pdf]. Al 31 marzo ì casi italiani erano però già saliti a 11, di 
cut uno importato, così come importati erano i due casi del 1994. In quella data i controlli eseguiti 
nel nostro paese erano arrivati a circa 65 000. Sui risultati dei test il Ministero della Sanità fornisce 
un aggiornamento quotidiano sul sito: vifww.sanita.it/sanita/comunicati stampa/defautt.asp. 



Al centro della lotta 



Sperduto nelle verdi campagne delle Fiandre, vicino alla cittadina dì Geel, c'è il 
quartier generale della lotta alla BSE. È Nnstitute for Referente Materials and 
Measuremem (IRMM), uno dei centri di ricerca della UE facenti capo aIJoint 
Research Cent re [ JRC). «Noi non operiamo sui materiali - puntualizza Heinz 
Schìmmel, uno dei responsabili del progetto di lotta alla BSE • bensì sui metodi.» 
Come ente per la certificazione delle procedure di ricerca e misura (in ogni campo], 
I IRMM è infatti secondo, per importanza e risultati, solo allo statunitense NI'ST. 
LiRMM aggiorna costantemente centinaia di laboratori dì analisi sui miglioramenti 
nelle procedure da seguire, li rifornisce di campioni e prescrive le modalità 
con cui operare per avere un monitoraggio e rapporti il più possibile omogenei, 
e quindi confrontabili. 

In nove mesi, a partire dall'autunno 1998, l'IRMM ha preparato e spedito ai 
laboratori d'analisi della UE oltre 14 000 campioni standardizzati perla valutazione 
dei casi sospetti di BSE: è dall'esame dei 5290 rapporti che ne sono scaturiti che è 
nato l'attuale vasto programma di controllo. 

Oltre alla supervisione sui test ora in corso, l'IRMM cura lo sviluppo dì un 
protocollo per individuare la BSE in fase pre-clinica: per questa sta lavorando con 
14G campioni di cervello e di midollo spinale e 25 prelievi omogeneizzati. Per 
comprendere la delicatezza delle operazioni, Schìmmel, indicando l'involucro di 
plastica che sigilla il contenitore con il campione e gli strumenti, dice; «Anche la 
plastica andrà bruciata: solo con il fuoco si cancella ogni rischio». 

In collaborazione con altri istituti, tra cui il JRC dì Ispra, l'IRMM sta sviluppando 
anche altri filoni di ricerca. Di recente, per esempio, ha messo a punto test per 
l'identificazione di mangimi a base dì ossa d'altri animali. Un ulteriore programma 
riguarda la possibilità che la malattia da prioni colpisca anche la pecora. In questo 
quadro si sta indagando anche la possibilità che altre patologie degli ovini possano 
aggravarsi «approfittando» della presenza dei prioni. I risultati finali sullo sviluppo 
di questi test si avranno peraltro soltanto fra quattro o cinque anni. 



L'encefalopatia spongifor 



Paesi 



fino al 193? 1908 



1989 



1990 



1991 



1992 



1993 



1994 



199S 



1996 



199? 



1998 



1999 



2000 



2001 Totale 




Germania 

















1 


a 


3 








2 








? 


? 


1?9441 
20 


Danimarca 

















1 























1 


1 


3 


Francia 














5 





i 


4 


3 


12 


6 


18 


31 


162 


6 


248 


Itali* 











a 


q 








2 














a 





1 


3 


Paesi Bassi 
































2 


2 


2 


2 


1 


9 


Totale senza U.K. 








15 


15 


23 


21 


20 


40 


33 


115 


122 


215 


301 


4?1 


19 


1410 


Totale U. E. 


442 


2473 


?181 


14309 


2522S 


3?0?7 


34849 


24330 


14508 


8205 


445? 


341? 


2581 


1?83 


19 


180851 


Jersey 





1 


4 


B 


15 


23 


35 


22 


10 


12 


5 


8 


6 


3 





1S2 


Liechtenstein 
Svizzera 



































2 











2 


Altri 


a 

446 





3 
7246 




maam 








1 


























4 



solo mediante l'autopsia, quando è troppo 
tardi per prevenire il contagio. Tra l'altro 
non è detto che non esistano altre vie di 
trasmissione delia malattìa oltre all'inge- 
stione; tanto è vero che, negli Stati Uniti, 
non si accettano più donazioni di sangue 
da cittadini provenienti da paesi europei. 

L'ingestione è stata comunque la via 
attraverso cui sì sono infettati i bovini 
ammalati. Tranne qualche caso, non del 
tutto chiarito, erano stati rutti nutriti con 
mangimi addizionati di farine animali, 
per aumentare la produttività, ed erano 
così sicuramente incappati in resti infetti. 
I prioni resìstono infatti ai trattamenti più 
drastici e non è certo l'alta temperatura o 
l'acidità dello stomaco a distruggerli. 

Anche per la variante umana la re- 
sponsabilità va attribuita all'ingestione. 
Per una sfortunata combinazione il prio- 
ne patologico che infetta i bovini è simile 
a quello umano e può moltiplicarsi all'in- 
terno del tessuto cerebrale dell'uomo. Or- 
mai tutti sanno quali sono i tessuti più pe- 
ricolosi ma, secondo alcuni esperti, prima 
che questo fosse del tutto chiaro, hambur- 
ger e salsicce che spesso contengono 
frammenti di tessuto nervoso, milza o al- 
tre parti a rischio potrebbero essere stati 
un veicolo di contagio. Ciò spiegherebbe 
l'incidenza della variante umana tra i gio- 
vani inglesi, notoriamente affezionati 
consumatori di questo tipo di cibi. 

I problemi dei test diagnostici 

I test rapidi sono eseguiti post mortem 
su campioni di tronco encefalico e forni- 
scono l'esito in 36-48 ore. Tre sono ì tipi 
di test attualmente previsti dalle nonnati- 
ve europee: Prionics Check, che sì basa su 
una procedura di tipo Western blot, per 
l'identificazione di frammenti di proteina 
prionica resistenti alla proteasi mediante 
anticorpi monoclonali; Enfer, un test tipo 
ELISA chemiolumìnescente che utilizza 
anticorpi policlonali; e un immunosaggio 
«a sandwich» per la proteina prionica resi- 
stente eseguito dopo un processo di dena- 
turazione e di concentrazione. 

Basandosi sulla ricerca della proteina, e 
non delle lesioni tipiche della malattia, i 
test rapidi hanno una sensibilità superiore 
all'esame istopatologico e permettono di 
identificare la patologia prima della com- 
parsa dei segni clinici. Nell'esperienza 
francese, per esempio, i test risultavano 
positivi anche quando i campioni di ani- 
mali infetti erano diluiti di 10-20 volte. 
Va però detto che secondo alcuni studi la 
positività ai test inizierebbe solo poco pri- 
ma del manifestarsi dei primi segni clinici. 

Da dicembre la società svizzera che 
produce uno dei test rapidi sta cercando di 
sviluppare un test per identificare l'infe- 
zione con un semplice esame del sangue. 



38 



LE SCIENZE 393 /maggio 2001 



www.lescienze.it 



39 



Gli attuali test 
possono rivelare 
se gli animali 
macellati 
sono affetti 
dalla malattia 
della mucca pazza 
in uno stadio 
avanzato, 
ma sono ancora 
ben lontani 
dall'accertare 
se un taglio 
di carne è sicuro. 
Un aiuto potrà 
venire solo 
da un'approfondita 
conoscenza 
dei meccanismi 
di moltiplicazione 
degli agenti 
patogeni della BSE 
e di altri prioni 
infettivi 



40 




eilpfjpblema 






a 



1 



** 




«I 





Da quando sono emersi i primi casi della malattìa della mucca pazza in Europa la sigla BSE - dai nome 
scientifico inglese della malattia, l'encefalopatia spongiforme bovina - ha fatto la sua comparsa nei me- 
dia, scatenando forte allarme tra la popolazione. La malattia deve il suo nome alla degenerazione spu- 
gnosa del sistema nervoso centrale che si manifesta nello stadio finale della malattia nei bovini che ne 
sono colpiti. Al livello attuale delle conoscenze sappiamo che la BSE può essere trasmessa agli esseri 
umani provocando, dopo un periodo di incubazione di uno o più anni, una nuova variante delia malattia 
di Creutzfeldt-Jakob, che sì conclude con la demenza progressiva e la morte. (La forma classica del- 
la malattia di Creutzfeldt-Jakob, nota già da molto tempo, presenta lo stesso decorso, ma non è contagiosa: ha origi- 
ne spontaneamente, con una probabilità estremamente bassa.) 
Quanto è grande il rischio di infezione? Che cosa si può man- 
giare senza pericolo? Quanto sono sicuri i test? Quanto è lunga 
l'incubazione nei bovini e nell'uomo? Finora non siamo in gra- 
do dì dare risposte esatte e definitive a queste importanti do- 
mande perché non sappiamo ancora con certezza in che modo 
l'agente della malattia della mucca pazza si moltiplichi nel cor- 
po umano. Per capire il meccanismo d'infezione della BSE e i 
suoi effetti è perciò essenziale chiarire esattamente la cinetica 
dei processi molecolari che consentono agli agenti infettanti di 
moltiplicarsi. Soltanto allora si potranno prendere misure effica- 
ci per arginare il contagio. 

Già nel 1996 avevo preso in esame varie ipotesi sulla moltipli- 
cazione dell'agente patogeno della BSE e di altri prioni per valu- 
tare come sì conciliassero col decorso della malattia e con le co- 
noscenze sulla diffusione del contagio. I risultati di ricerche re- 
centi confermano le conclusioni di quel mio lavoro e dei model- 
lo molecolare che proponevo. Quel modello ha tra l'altro con- 
sentito di sviluppare un nuovo test per accertare la presenza dei 
prioni della BSE già in concentrazioni da IO a 100 volte minori 
di quelle che possono essere scoperte con ì metodi standard at- 
tuali. Grazie a esso si potrà quindi diagnosticare la malattia della 
mucca pazza in uno stadio molto più precoce. Occorrerebbero 
però test molto più sensibili per poter accertare se un taglio di 
carne bovina sia veramente sicuro, ossia se contenga meno prio- 
ni pericolosi di quanti siano necessari per trasmettere la BSE. 

Che cos'è un priorie? 

Stanley Prusiner, dell'Università della California a San Fran- 
cisco, ha il merito - che gli è valso il premio Nobel per la chimi- 
ca nel 1997 - di avere riconosciuto in una proteina l'agente in- 
fettivo della BSE e di malattie affini (si veda il suo articolo le 

" ™~ = LA PROTEINA PRIONICA NORMALE PrF* 

dei bovini ha una struttura spaziale 
ben definita fra gli amminoacidi nu- 
mero 12 1 e 230, mentre il resto della 
molecola (amminoacidi numero 23- 
121] presenta una catena libera- 
mente fluttuante. L'ambito «ordina- 
to» contiene tre alfa- eli e he [in verde) 
e una struttura a foglietti beta ripie- 
gati [in blu). La conversione della 
proteìna prionica normale Prf* in 
quella patologica PrP« comporta una 
diversa co nform azione spaziale della 
parte delta molecola costituita dai fo- 
glietti beta. Nella fotografia in que- 
sta pagina In alto un tecnico mostra 
campioni di cervello bovino inviati 
per controlli sulla BSE al Laboratorio 
veterinario statale di Oldenburg, nel- 
la Germania nordorientale. 






malattie da prioni in «Le Scienze» n. 319, marzo 1995, riprodot- 
to anche nel Quaderno n. 114, Epidemie). Prusiner è riuscito a 
dimostrare che una piccola proteina con la medesima sequenza 
di amminoacidi è normalmente presente negli organismi sani, in 
cut svolge una funzione ancora sconosciuta. Per entrambe le 
proteine - quella normale e quella patologica - Prusiner ha co- 
niato il concetto di prione, introducendo la corrispondente sigla 
PrP (proteina prionica). Egli ha inoltre distinto le due proteine 
indicando con il suffisso e (per «cellula») la forma normale e col 
suffisso se la variante infettiva, patologica. Quest'ultimo suffisso 
fa riferimento alla malattìa osservata da molto tempo negli ovi- 
ni, lo scrapie, sulla quaie Prusiner iniziò le sue ricerche all'inizio 
degli anni ottanta (quando la BSE non era ancora nota). La PrP 
e la PrP^ si differenziano esclusivamente per il modo in cui la 
catena degli amminoacidi è avvolta. 

Una singola molecola di PrP 50 non è peraltro ancora conta- 
giosa. L'«unità infettiva» - ossia la quantità minima che può sca- 
tenare un'infezione - comprende almeno 100 000 molecole di 
PrP sc . Lo si è accertato per mezzo di esperimenti nei quali si era- 
no inoculate quantità diverse di PrP^ in gruppi di animali spe- 
rimentati, osservando poi quanti animali di ogni gruppo sì am- 
malavano e dopo quanto tempo. 

Una delle dimostrazioni più convincenti dell'esattezza delle 
ipotesi di Prusiner sull'origine delle malattie da prioni è stata 
fornita da Charles Weissmann e dalla sua scuola all'Università 
di Zurigo. Weissmann ha dimostrato, fra l'altro, che in topi in 
cui sia stato rimosso il gene per la PrP, impedendo cosi la pro- 
duzione della corrispondente proteina, anche l'introduzione del- 
le particelle infettive PrP sc non trasmette la malattia. 

Il fatto che ì prioni, in accordo con l'ipotesi di Prusiner, non 
posseggano acidi nucleici contenenti le informazioni sul patri- 
monio ereditario è stato invece dimostrato da Detlev Riesner, 
dell'Università di Dusseldorf. Attraverso misurazioni fisico-chi- 
miche estremamente sensibili, Riesner ha escluso la presenza di 
quantità significative di RNA o di DNA nell'agente patogeno di 
malattìe come la BSE. Conoscendo il procedimento utilizzato da 
Riesner possiamo escludere che le unità infettive di PrP 50 con- 
tengano più di una molecola formata da 100 nucleotidi: troppo 
pochi perché in essa possa venire codificata la proteina prionica. 

Questo è un risultalo importante, poiché la BSE e altre malat- 
tie da prioni sono «infettive» nel senso che 11 loro agente si mol- 
tiplica in modo esponenziale. Putte le malattie contagiose di 
questo genere sono state finora ricondotte ad agenti patogeni 
«riproducibili», alla cui base c'è la duplicazione dell'RNA o del 
DNA. Ciò non vale chiaramente nel caso dei prioni. Tuttavia la 



I TEST DIAGNOSTICI PERÙ 
BSE [fotografia in alto J si 
basano sulla proprietà 
dell'enzima p roteasi K di 
demolire completamente il 
prione normale PrP 1 , ma non 
la forma patologica PrP 11 
(dalla posizione 90 fino alla 
230). La figura qui a (ranco 
mostra come con la tecnica 
Western Blot si possono 
distinguere le proteine 
normali [a sinistro ) da 
quelle patologiche [o 
destre) prima e dopo 
l'aggiunta di protessi K. 
Come si può notare, nella 
striscia del campione 
patologico rimane una 
grande unità proteica. 



Resistenza della PrP alla proteasi K 



33 



£ 2? 



3 



18 




PrP c , PrP sc 



209 amminoacidi 

. 142 amminoacidi 

7 - 

E 



£ 



Senza 
enzima 



Con 

enzima 



Senza 
enzima 



Con 
enzima 



42 



LE SCIENZE 393 /maggio 2001 



www.lescienze.it 



43 





LA MOLTIPLICAZIONE DEI PRIONI INFETTJVI avviene in due fasi. Nella prima le catene di PrP« legano 
alle loro estremità molecole di PrP 1 proprie dell'organismo e le trasformano nella forma patologica. 
Nella seconda le catene in crescita si spezzano [cosicché la loro lunghezza rimane costante nel 
tempo]. Mentre la crescita in lunghezza di una catena non aumenta il numero delle unità proteiche 
prionìche infettive, la rottura delle catene causa la loro crescita esponenziale. L'evento è rappre- 
sentato in questo schema in modo molto più regolare di quanto avvenga in realtà. 



loro scoperta non ha affatto tolto valore 
alle conoscenze della virologia e della 
batteriologia, bensì ha semplicemente ri- 
velato che esistono anche sistemi speciali, 
fondati eselusivamente su proteine, che 
simulano il comportamento di replicazio- 
ne tipico degli acidi nucleici. 

Un altro progresso è stato fatto segnare 
da Kurt Wuthrich, del Politecnico Federa- 
le di Zurigo. 11 suo gruppo ha determinato 
con la risonanza magnetica nucleare la 
struttura dei prioni normali. Questi con- 
terrebbero un dominio «globulare», in cui 
la catena di amminoacidi forma tre strut- 
ture avvolte a elica. Questo dominio, cosi 
come il resto della molecola, può essere 
«digerito» grazie a un enzima che scom- 
pone le proteine, cosa che non e possibile 
per un segmento analogo di PrP sc , La ra- 
gione di questa differenza risiede nel fatto 
che la forma patologica contiene, invece 
della porzione avvolta a elica, dei fogliet- 
ti beta, nei quali la catena di amminoaci- 
di ha un andamento paragonabile a una 
lamiera ondulata. In questo caso gli enzi- 
mi possono scindere solo l'estremità aperta della catena. 

Questo diverso comportamento della PrF^ e della PrP sc è aila 
base de) test oggi utilizzato per l'accertamento della BSE. Kurt 
Wuthrich ha studiato le differenze a livello della struttura glo- 
bulare dei prioni di diverse specie animali traendo interessanti 
conclusioni su una possibile trasmissibilità delia malattia. Ne è 
risultato, per esempio, che le proteine prionìche bovine e umane 
hanno strutture molto simili, il che suggerisce che il contagio 
abbia una discreta probabilità di passare da una specie all'altra. 

Stanley Prusiner è stato anche il primo a proporre un mecca- 



IN PILLOLE 



■ L'agente infettivo della BSE ha un 
tempo d'incubazione molto lungo. La 
malattia si manifesta solo anni dopo il 
contagio. I test attuali possono 
diagnosticare la malattia non più di sei 
mesi prima delia comparsa dei sintomi. 
Un bovino contagiato è però 
probabilmente infettivo anche prima. 
Inoltre i test attuali si possono 
eseguire solo su animali macellati. 

■ Un nuovo test, la spettrometria a 
fluorescenza con correlazioni 
incrociate, è 10-100 volte più sensibile 
dei test standard e può essere usato 
anche su bovini vivi. Esso 
consentirebbe quindi di scoprire la 
malattia con qualche mese di anticipo. 

■ Lo studio del meccanismo di 
moltiplicazione dei prioni evidenzia la 
possibilità di riconoscere un'infezione 
di BSE sin dall'inizio, li principio 
consiste nel far moltiplicare in provetta 
le particelle infettive, prima della loro 
naturale comparsa. 




"O, Molecola di PrP c 
*0. Molecola di PrP« 



Anticorpo 
con colorante 
fluorescente verde 



Anticorpo 
con colorante 
fluorescente rosso 



LA MARCATURA DI ANTICORPI con coloranti fluorescenti verdi 

e rossi, che possono legarsi specificamente in un sito delia 

molecola prionica, è la base del metodo SIR" (Scanningfor 

Imensely FluorescentTargets],un nuovo test, più sensibile, 

per rivelare la presenza di prioni patologici. Se questi 

anticorpi marcati incontrano una particella di una lunga 

catena di PrP*, le si attaccano in molti punti. La particella si 

rivela anche attraverso il fatto che, qualora venga eccitata 

intensamente con la luce laser corrispondente, a ppa re 

intensamente colorata sia in rosso, sia in verde. 



L'AUTORE 



MANFRED EIGEN è direttore emerito della sezione di cinetica 
biochimica al Max-Planck-Institut fùr Biophusikalische Chemìe 
di Gòttingen, la città dove si è laureato nel 1951. Nel 196? è 
stato insignito del premio Nobel per la chimica per i suoi studi 
sulle reazioni chimiche veloci. In seguito si è occupato di evolu- 
zione molecolare. Insieme con Rudolf Rigler ha sviluppato un 
metodo spettrografico per evidenziare singole molecole. 



nismo per la trasformazione della Fri* in PrP sc . Egli ha suppo- 
sto che una singola molecola di PrP sc si leghi con una di PrP c , 
inducendola ad assumere la forma patologica. Questo meccani- 
smo corrisponderebbe a!l 'autocatalisi diretta di una trasforma- 
zione strutturale: l'agente patogeno agisce «autonomamente» 
favorendo la conversione della forma innocua nella forma ma- 
ligna e in tal modo riuscendo a replicarsi. 

Peter Lansbury, del Brigham and Women's Hospital dì Bo- 
ston, ha invece ipotizzato un meccanismo di amplificazione del- 
le catene intorno a un «germe» di crescita. Secondo Lansbury, la 
moltiplicazione della proteina patologica PrP 5 *-" assomiglierebbe 
a un processo di polimerizzazione paragonabile alla produzione 
di sostanze sintetiche lineari come il polietilene: una catena di 
unità di PrP^ disposte in fila ì'una dopo l'altra cresce accumu- 
lando, legando e trasformando singole molecole nella forma pa- 
tologica. Presupporre la formazione di un germe per la crescita 
della catena significa che essa debba raggiungere una grandez- 
za critica prima di poter aggiungere nuove unità più rapidamen- 
te di quanto perda le vecchie per separazione. Con questo mo- 
dello Lansbury ha cercato di spiegare soprattutto due fenomeni: 
il fatto che la PrP sc nel cervello degli animali malati sia presen- 
te abitualmente nella forma di bacillo e il fatto che l'«unità infet- 
tiva» comprenda un gran numero di molecole PrP. 

Come «reagisce» un priorie? 

L'intento della mia ricerca del 1996 era quello di valutare i 
due meccanismi sulla base della loro cinetica chimica. Risultò 
che, se si ipotizzano per le costanti di velocità e di equilibrio va- 
lori analoghi a quelli noti per le interazioni fra proteine, il mec- 
canismo ipotizzato da Prusiner con due sole unità prionìche che 
interagiscono non può plausibilmente funzionare. Questa ipote- 
si applicala alla malattia di CreuLzfeìdt-Jakob, che compare 
spontaneamente nell'uomo, avrebbe la conseguenza che con un 
dato valore di parametri la concentrazione di proteina prionica 
patologica dovrebbe continuare o a diminuire o ad aumentare. 
Varrebbe in questo caso il principio del «rutto o nulla»: l'infezio- 
ne dovrebbe o estinguersi costantemente da sola prima di insor- 
gere, oppure originarsi spontaneamente con una probabilità 
molto maggiore di quanto non avvenga, 

11 problema si risolve ipotizzando un'interazione cooperativa 
fra più di due unità proteiche. Parecchi enzimi «allosterici», che 
vengono trasformati in una forma attiva solo attraverso l'asso- 
ciazione con una molecola effettrice, ne dirigono in questo mo- 
do l'attività. Attraverso la cooperatività, e in presenza di para- 
metri cinetici appropriati, la trasformazione strutturale autoca- 
talitica consente di raggiungere un valore di soglia per l'insor- 
genza della malattia. 

hi effetti il meccanismo di Lansbury contiene, attraverso la 
formazione del germe, una sorta di interazione cooperativa che, 
in questo caso, agisce fra i componenti della catena di PrP^. Un 
solo componente non è quindi in grado di legare e trasformare 
una molecola di PrP c . Perché la trasformazione avvenga in mo- 
do efficace devono interagire almeno altrettanti componenti 
quanti ne contiene il germe. Solo allora la velocità di costruzio- 
ne della catena risulterà superiore a quella della sua distruzione. 

Ma rimane ancora una difficoltà. La catena, dopo avere rag- 
giunto la grandezza del germe, continua sì a crescere in modo 
autocatalitico, ma senza quell'accelerazione esponenziale che è 
tipica delle reazioni autocatalitiche. Un'accelerazione esponen- 
ziale presuppone che. dopo la trasformazione, sia il catalizzato- 
re originario sia il prodotto della sua reazione rimangano dispo- 
nibili per ulteriori cicli autocatalitici, cosicché il numero delle 
specie cataliticamente attive raddoppia a ogni ciclo di reazioni. 
in una progressiva polimerizzazione, però, ciò non avviene: ogni 
volta resta cataliticamente attiva solo la terminazione proteica. 



Cinetica 

della moltiplicazione 

Per esprìmere matematicamente la moltiplicazione dei prioni 
infettivi, si devono considerare tutte le reazioni che una 
catena di molecole PrP" di lunghezza /piegate in modo sbagliato 
può compiere, e stimare le relative velocità. Fra le reazioni possìbili 
c'è la degradazione (scomposizione) a opera delle difese 
immunitarie, o un'altra forma di disattivazione (DJ. Inoltre la 
catena può spezzarsi ìn un punto a piacere (Bj. Rimangono 
infettivi solo frammenti che abbiano una ceda lunghezza minima 
n. Infine la catena può allungarsi [E] legando a sé una molecola di 
proteina prionica normale PrP e trasformandola nella forma 
patologica. In condizioni normali le molecole di PrP vengono 
costantemente fornite [/.] e decomposte ( 5] . 



■ Terminazione 
• PrP c 
OPrP 5C 




Per tutte queste trasformazioni valgono costanti di velocità 
specifiche. Lo schema di reazione fornisce allora per le velocità 
dei processi parziali i termini seguenti. Qui* sta per la 
concentrazione in PrP 1 normale, y per il numero complessivo 
delle catene e z per il numero complessivo delle molecole di PrP" 
presenti. 



Velocità 
Creazione 

l.«- d 'iti 


Metabolismo 


Degradazione 
D 


Rottura 

dì catena 
B 


Allungamento 
E ■ 


Separazione 

Terminate 
ti 3 


x - 

y " 

z = 


*x 


-&. 


-Du. 
-EU 


-Bz 


-Ewy 
-Ewy 


♦ n(n-l)By 
-l2n-l]By 
-[n-l)B a 



Questi termini si possono legare in equazioni differenziali in 
cui compaiono per la variazione temporale di u e z. In 
corrispondenza dello stato di equilibrio la concentrazione in 
molecole d i PrP può essere considerata approssimativamente 
costante [x a \. Le soluzioni delle equazioni differenziali sono 
nella seguente forma generale: 

y[t) = A,e- k ''+ A ? e-M z(t) = B l e-*i<+ B 2 e^' 

In esse compare sempre un termine di crescita e un termine 
di diminuzione. Ques'ultimo porta all'instaurarsi di uno stato di 
equilibrio temporaneo con distribuzione costante della 
lunghezza delle catene. Dopo un certo tempo domina invece il 
termine di crescita. L'analisi di queste equazioni mostra perché i 
prioni infettivi si moltiplichino solo con estrema lentezza. 



LE SCIENZE 393/ maggio 2001 



www.lescienze.it 



45 



Volume 
del campione 



Anche per questa difficoltà c'è però una soluzione. Il mecca- 
nismo di polimerizzazione fornisce, in certi casi, una crescita al- 
trettanto esponenziale: ciò avviene quando le catene che si al- 
lungano si spezzano di continuo, liberando cosi nuovi catalizza- 
tori, Martin Nowak - un collega dei tempi in cui si studiavano i 
processi di evoluzione molecolare a Gòttingen e a Vienna e che 
oggi lavora all'lnstitute for Advanced Study di Princeton - ha ri- 
preso, perfezionandolo, il modello della rottura della catena. Ne- 
gli ultimi anni, grazie alla traduzione di questo modello in una 
forma risolvibile matematicamente, Joanna Masel, dell'Univer- 
sità di Oxford, ha potuto chiarire molti particolari del decorso 
delle malattie da prioni che finora non erano stati compresi. 

Come si moltiplica l'agente della BSE 

Nel suo modello Nowak ha inserito equazioni che esprimono 
lo stato dì equilibrio per la crescita, la rottura e la dissoluzione di 
catene proteiche di qualsiasi lunghezza. La crescita viene resa 
essenzialmente con un'espressione per l'allungamento delle ca- 
tene. In che modo l'allungamento e la rottura della catena coo- 
perino facendo in modo che il numero di terminali catalitica- 
mente attivi aumenti in modo esponenziale è mostrato schema- 
ticamente nell'illustrazione a pagina 44 in alto. La dissoluzione, 
a cui sono soggetti tutti 1 polimeri. Fa si che i germi infettivi ab- 
biano solo una durata dì vita limitata. 

La velocità di allungamento è il risulta- ^^^^^ ^^^ 
to di tre fattori che descrivono processi in 
parte in competizione fra loro: 

• il legame di un'unità proteica PrP c a 
una estremità (o a tutt'e due) della catena 
di PrP sc ; la sua velocità di allungamento 
è limitata dalla probabilità che le due 
unità si incontrino per diffusione; 

• la separazione dell'unità PrP c che non 
si è ancora trasformata strutturalmente; 

• la trasformazione strutturale della PrP c 
in PrP sc , che provvede all'integrazione 
stabile nella catena e quindi stabilisce il 
tasso di allungamento. 

Le velocità di questi tre processi posso- 
no essere descritte da un'unica espressio- 
ne matematica. Invece di costruire equa- 
zioni di equilibrio separate per ogni sìn- 
gola catena di PrP sc , per descrivere la si- 
tuazione Nowak pensò di ricorrere a due 
termini da me introdotti nel 1996: l'uno 
contiene tutte le unità di PrP comprese 
nelle catene di polimeri di diversa lun- 
ghezza; l'altro è una misura del numero 
di queste catene, e quindi di tutte le posi- 
zioni terminali cataliticamente attive. 

Questo approccio consente di semplifi- 
care molte espressioni delle singole equa- 
zioni. Alla fine rimangono solo due equa- 
zioni differenziali lineari - risolvibili ana- 
liticamente - che descrivono il variare dei 
due termini nel corso del tempo. Le solu- 
zioni consistono nella somma di due fun- 
zioni esponenziali, nelle quali il tempo 
compare come esponente una volta col 
segno positivo e una col segno negativo. 

Una funzione rappresenta un termine 
di crescita, e l'altra un termine di diminu- 
zione. Quest'ultimo descrive la fine di un 
equilibrio temporaneo in cui una determi- 
naia distribuzione delle lunghezze delle 



Un metodo sicuro 




Intensità dei lampi di fluorescenza verdi 



Per ver ificare l'accuratezza del metodo SIR nella diagnosi di una 
malattia da prioni nell'uomo, si è sostituito il liquido cerebrospi- 
nale di pazienti affètti da un disturbo neurologico, ma non da una 
malattia da prioni, con una soluzione contenente una determinata 
quantità di aggregati prionici infettivi. La misurazione con il meto- 
do SIR che utilizza anticorpi marcati con calori fluorescenti rosso o 
verde, ha fornito il risultato qui riprodotto. Nella scala a destra è in- 
dicato il numero dei lampi registrati nel corso della misurazione in 
funzione della loro intensità. I più frequenti sono i segnali fluore- 
scenti deboli [a sinistra in bosso). Essi si producono quando un anti- 
corpo marcato con una sostanza fluorescente cade esattamente 
nel fuoco del laser. Se nel volume di campione da misurare viene a 
trovarsi un agglomerato di proteina prionica patologica (PrP- .sul 
quale sono confluiti anticorpi marcati con sostanze che emettano 
fluorescenza nei colori rosso e verde, si produce un lampo intenso, 
formato da un ugual numero di parti verdi e rosse. Questi eventi si 
manifestano come punti gialli nello spazio a destra in alto, delimita- 
to dalle due linee blu. I punti all'interno delle ellissi rossa o verde de- 
rivano da altri aggregati proteici, che si legano casualmente a uno 
dei due marcatori fluorescenti. 



Capillare 
di vetro 
sigillato 




Analisi di correlazione 

incrociata 

Analisi di intensità 



IL NUOVO METODO DIAGNOSTICO SIFT utilizza un laser ad argo e uno a elio-neon i cui raggi vengono 
concentrati su un punto della soluzione da misurare. Ogni volta che una particella marcata con un 
colorante fluorescente verde o rosso cade nel fuoco dei raggi laser, emette luce del colore corri- 
spondente. Le particelle sono raccolte e separate a seconda del colore emesso. La simultanea 
comparsa della fluorescenza rossa e verde indica un prione. La foto a destra mostra un tecnico che 
seziona la testa di un bovino per ricavare un campione di cervello su cui eseguire i test per la BSE. 




catene con un valore medio definito viene mantenuta staziona- 
ria. Dopo un certo tempo esso non fornisce più un contributo 
degno di nota, cosicché rimane attiva solo la porzione terminale. 
Poi sia il numero delle catene polimeriche sia quello delle unità 
patologiche in esse contenute aumenta in modo esponenziale, 
fino a superare la quota di prioni normali. 

Perché un'incubazione così lunga? 

Joanna Masel ha sviluppato in modo dettagliato questo mo- 
dello, valutandone esaurientemente tutte le conseguenze e con- 
frontandole con i dati sperimentali, 1 risultati ottenuti da questa 
ricercatrice sono molto importanti ai fini di anticipare ìa dia- 
gnosi delle malattie da prioni. Il confronto con i dati sperimen- 
tali chiarisce che l'associazione di una molecola di PrP c a una 
catena di PrP^ e la sua trasformazione in una proteina patolo- 
gica richiede circa un quarto d'ora. La catena stabile di PrP^ ha 
una lunghezza media di circa 1000 unità. Essa richiede quindi 
per la sua formazione un tempo 1000 volte più lungo. Gli espe- 
rimenti indicano un periodo compreso fra 5 e 20 giorni. Perché 
possa instaurarsi un equilibrio temporaneo, con una lunghezza 
di catena stabile, in questo intervallo di tempo deve avvenire in 
media un evento di rottura di catena. Il tempo di dimezzamento 
per la rottura in un punto prestabilito si aggira intorno a 30 an- 
ni, Dal momento che ogni catena contiene in media un migliaio 
di punti dì rottura possibili, nell'insieme si ha una rottura di ca- 
tena ogni IO giorni circa. Costruzione e rottura di catene si 
mantengono così in equilibrio, ma il numero di catene cresce in 
modo esponenziale. 

Una grandezza importante è anche il rapporto fra velocità di 
costruzione e velocità di eliminazione delle catene di PrP sc . Se- 
condo misurazioni eseguite su animali di laboratorio, le due ve- 
locità avrebbero pressappoco lo stesso ordine di grandezza. Ciò 
significa che il materiale infettivo, per poter restare tale, deve ri- 
prodursi costantemente. La causa dell'eliminazione non è del 
tutto nota; forse vi svolgono un ruolo le difese immunitarie, ma 
potrebbero esistere anche altri processi in grado di disattivare le 
catene di PrP 50 . Perciò si è scelto dì indicare la velocità di elimi- 
nazione con un termine negativo non specìfico, proporzionale 
alla quantità del materiale infettivo presente. Questo fatto però 
non rende meno attendibili le stime dei tempi di reazione. 

Un punto importante è il fatto che solo il substrato della rea- 
zione, la PrP c in trasformazione, può muoversi liberamente in 
soluzione e venire in contatto con una catena di PrP^ in accre- 
scimento. Quanto alle catene di Prpsc esse sono invece preva- 
lentemente legate a membrane. Ciò spiega perché l'unità infetti- 
va comprenda circa 100 000 singole molecole prioniche, benché 
le catene si rompano già quando ne contengono un migliaio. I 
frammenti rimangono vicini e cooperano fra loro; solo quando 
sì staccano dalla membrana raggiungono altri distretti corporei. 
Il risultato delle ricerche della Masel è che il materiale richiede 
settimane per raddoppiarsi; per raggiungere una concentrazione 
tale da essere individuabile nelle analisi occorre circa un anno. 

Queste ricerche rispondono a molti interrogativi, ma certa- 
mente non a tutti: non spiegano per esempio la fase iniziale e fi- 
nale dell'infezione, le vie di contagio, il tempo impiegato dall'in- 
fezione per colpire il cervello e il midollo spinale, come pure il ti- 
po di distruzioni che si verificano nella fase finale. 

Verso un test più sensibile della BSE 

La conoscenza della cinetica dell'infezione è decisiva per sta- 
bilire quanto precocemente si possa diagnosticare la malattia. 
Una diagnosi il più possibile tempestiva rappresenta a sua volta 
un'importante premessa per impedire il contagio. 

A causa dell'estrema lentezza della moltiplicazione dei prioni 



4G 



LESCIENZE 393 /maggio 2001 



www.lescienze.it 



4? 



patologici, un tipo di test più sensibile permetterà di riconoscere 
la malattia con mesi o addirittura anni di anticipo. Nel 1994 ho 
studiato insieme con i miei collaboratori un metodo che, in teo- 
ria, è adatto all'identificazione di quantità minime di priora. Es- 
so si riallaccia a un'ipotesi concepita da Rudolf Rigler fra il 1968 
e il 1971, durante un suo soggiorno al Max-Planck-Institui fur 
Biophysikalische Chemie a Gòttingen, e successivamente svilup- 
pata al Karulinska Instimi di Stoccolma. 

Si tratta del metodo FCS (Fluorescence Correlai ion Spcctro- 
scopy). Esso per così dire capovolge il principio della spettrosco- 
pia a fluorescenza classica. In questa le molecole di cui si deve 
accertare la presenza vengono marcale con un colorante che, 
quando viene illuminato, emette una luce fluorescente dì una 
lunghezza d'onda caratteristica. Dopo aver illuminato l'intero 
campione, sì misura l'intensità della luce fluorescente che indica 
la concentrazione delle molecole marcate quando essa è supe- 
riore a IO 1 * particelle per litro, ossia quando il segnale fluore- 
scente, misurato con continuità, si distingue chiaramente dal ru- 
more di fondo causato da fotoni dispersi e riflessi. 

Col nuovo metodo bastano concentrazioni molto minori. 11 
micco consiste nell'ìlluminare solo una parte del campione. Il fa- 
scio laser viene concentrato su un elemento spaziale il più possi- 
bile piccolo (il limite è dato dalla lunghezza d'onda della luce). 
Nel nostro caso il volume del fuoco del laser ammonta a meno di 
un femtolitro (IO '"■ litri). Questo procedimento presenta it van- 
taggio che da un elemento spaziale così piccolo irraggia poca lu- 
ce diffusa e quindi il rumore di fondo non crea praticamente di- 
sturbi. Un apparente svantaggio è che in un volume cosi piccolo 
è di solito rarissimo incontrare anche una sola molecola fluore- 
scente, con la conseguenza che nel tempo medio si avrà un se- 
gnale minimo di fluorescenza, indistinguibile dal rumore. 

Questo è però solo uno svantaggio apparente. Infatti non re- 
gistriamo più il segnale stazionario medio, ma aspettiamo che 
una delle molecole fluorescenti entri nel fuoco del laser. Benché 
vi si trattenga solo per qualche millisecondo anche meno, 
emette in questo tempo brevissimo una «salva» di alcune mi- 
gliaia di quanti di luce fluorescente. Questi vengono rivelati con 
un metodo noto come autocorrelazione. Si tratta semplicemente 
di moltiplicare le intensità registrate in due intervalli di tempo 
immediatamente successivi, lì prodotto è diverso da zero solo 
quando le due intensità sono diverse da zero. Ciò vale per una 
«salva» di fotoni, ma non, in generale, per il rumore di fondo 
tonnato dai singoli segnali di disturbo. In tal modo, nella regi- 
strazione, la somma dei prodotti dell'intensità si distingue chia- 
ramente dal rumore per l'intera durata del tempo in cui la mole- 
cola rimane nel fuoco del laser. 

L'apparecchiatura consiste essenzialmente in un microscopio 
a fluorescenza confocale molto sensibile, con analisi compute- 
rizzata dei segnali autocorrelati. Essa permette non solo di ren- 
dere visibili singole molecole, ma anche di rivelare concentra- 
zioni minime corrispondenti a un miliardo circa di particelle per 
litro e, con qualche trucco, concentrazioni ancora minori. 

11 metodo di autocorrelazione utilizza un marcatore fluore- 
scente legato a una sostanza che si lega con grande affinità alla 
molecola da rivelare, dotandola, per cosi dire, dì un'etichetta lu- 
minosa. Ora, la PrP sc è un aggregato proteico abbastanza gran- 
de, che può ospitare varie etichette. Sono adatti a svolgere que- 
sta funzione soprattutto anticorpi monoclonali, che si indirizza- 
no specificamente contro epitopi (punti di legame formati da 
pochi amminoacidi) della molecola di PrP sc , 

Ciò permette di far ricorso a un altro trucco che accresce ulte- 
riormente la sensibilità dell'indagine. Invece di un singolo arni- 
corpo monoclonale se ne usano due, che vengono indirizzati 
verso distinti epitopi della molecola di PrP e che sono marcati 
con due coloranti fluorescenti diversi: per esempio, l'uno rosso e 
l'altro verde. Non appena il complesso di prioni cercato cade nel 




Concentrazione degli aggregati prìonici 



IL CONFRONTO TRA 1 TEST TRADIZIONALI e il metodo SIFT è stato eseguita 
su una serie di diluizioni di materiale tratto da midollo spinale 
contenente aggregati di prioni. Come si vede, il nuovo metodo permette 
di rilevare concentrazioni molto più basse. 

fuoco del laser, emergono contemporaneamente un intenso se- 
gnale rosso e uno verde. La loro coincidenza è un chiaro segno 
della presenza del prione, in quanto un'altra molecola proteica 
potrebbe forse contenere per caso uno dei due anticorpi e quin- 
di emettere o un segnale rosso o uno verde, ma sarebbe molto 
improbabile l'emissione simultanea dei due segnali. 

Nella sua tesi di dottorato, Jan Biesclike, in cooperazione con 
Armin Giese, del gruppo di lavoro di Hans Kretzschmar alla Cli- 
nica universitaria di Gòttingen, ha sviluppato un efficace meto- 
do di diagnostica molecolare, che abbiamo chiamato SIFT 
(Scanning for Intensely Fluorescent Targets), basato su questa 
correlazione incrociata. Esso consente dì esaminare il liquido ce- 
rebrospinale di pazienti affetti dalla malattia di Creutzfcidt-Ja- 
kob. La sensibilità del procedimento supera di 10-100 volte 
quella dei metodi classici per la diagnosi della BSE. Esso funzio- 
na fino a una diluizione intorno a 1 su 250 000, un valore che 
equivale a un miliardo-mille miliardi di particelle pet litro. Mi- 
surazioni di questo tipo hanno dato buoni risultati sia in pazien- 
ti affetti dalla malattia di Creutzfeldt-Jakob sia in pazienti affet- 
ti dal morbo di Alzheimer; questi ultimi soffrono di una grave 
forma di clemenza senile caratterizzata dalla presenza nel cer- 
vello di aggregati proteici costituiti non da prioni, ma da depo- 
siti non infettivi di sostanza beta-amiioide. 

Il vantaggio del procedimento SIFT consiste innanzitutto 
nell'avere permesso per la prima volta dì eseguire misurazioni 
su liquidi organici accessibili, come per esempio il liquido ce- 
rebrospinale. In questo modo sarebbe teoricamente possibile 
eseguire test della BSE su bovini vivi, anche se il prelievo del 
liquor resta un procedimento complicato, che può richiedere 
l'uso dell'anestesia. 



48 



LESCIENZE 393/maggio2001 




13 pazienti dì controllo 



24 pazienti affetti 
dalla malati» di Creutzfeldt- Jacob 



I PRIONI CONTENUTI NEL LIQUIDO CEREBROSPINALE di pazienti affetti dalla 
malattia di Creutzfeldt-Jakob sono stati per la prima volta individuati 
con il metodo SIR. 11 test ha funzionato solo in un quarto dei casi, 
ma nei pazienti di controllo non è stato riscontrato alcun falso positivo. 




UN AMMASSO DI CARCASSE DI BOVINI fotografato a Gberling, presso Monaco di Baviera, poco prima 
della distruzione, nel marzo 199?. Facevano parte di un allevamento di 180 capi, tutti abbattuti 
dopo che un esemplare era risultato positivo al test per la BSE. 



BIBLIOGRAFIA 



EIGEN MAN FRED, Prionìcs, in «Biophysical Chemistry», 63, pp. 
A1-A18. 1996. 

MASEL J„ JANSEN V. A. A. e NOWAK M. A., Quantifying the Kinetìc 
ParometersofPrion Replication, in «Biophysical Chemistry», ??, 
p. 139, 1999. 

EIGEN MANFRED, Molekulare Dìagnostik, in Dos Gen und der 
Mensch. a cura di G. Gottschalk, Wallstein Verlag, Gòttingen 2000. 
BIESCHKE J. e altri, Ultra-sensitive Detection ofPathoìogicai Prion 
Protetti Aggregates bg Dual-color Scanning for Intensely Fluore- 
scent Targets {SIFT}, in «Proceedings of the National Academy of 
Sciences [USA]». 9?, p. 54G8, 2000. 



C'è vera sicurezza perii consumatore? 

Quanto all'individuazione di agenti patogeni della BSE nei bo- 
vini, le esigenze sono estremamente elevate. Non basta accertare 
che la concentrazione dei prioni patologici sia inferiore al limite 
di sensibilità di un procedimento. Il problema è accertare che la 
carne sia priva di materiale infettivo. 1 metodi noti possono già 
misurare concentrazioni da picomolari a nanomolari, dimostran- 
do una sensibilità elevatissima per un'analisi chimica. A tali va- 
lori corrispondono, per ogni chilogrammo di sostanza, da IO 11 a 
10 B unità molecolari, quantità molto superiori alle 100 000 unità 
di PrP sc contenute in un germe infettivo. Non é quindi di molto 
aiuto il fatto che i nuovi procedimenti siano da uno a due ordini 
di grandezza più sensibili dei metodi già in uso. Possiamo sì «ve- 
dere» le singole molecole, ma dobbiamo prima «rintracciarle» al- 
l'interno della mole di particelle che fanno parte dell'organismo. 
La soluzione del prahiema potrebbe consistere nell'aumentare 
artificialmente il numero di germi infettivi presenti fino a quan- 
do la loro concentrazione non superi la soglia della rilevabiliià, 
Nel caso di virus e batteri, la cui infettività risiede nei geni, e 
quindi nelle molecole degli acidi ribonu- 
cleico (RNA) o desossiribonucleico (DNA), 
non c'è alcun problema del genere. Con 
l'aiuto della reazione a catena delia polì- 
merasi (PCR), o di procedimenti analoghi, 
si possono moltiplicare esponenzialmente 
in breve tempo singole molecole fino a ot- 
tenerne quantitativi utilizzabili con i pro- 
cedimenti di analisi abituali. 

E qui entra in gioco la cinetica della 
moltiplicazione. Nel caso dell'RNA e del 
DNA bastano pochi secondi, o minuti, per 
raddoppiare il numero di sequenze carat- 
teristiche. Così in un campione contenente 
un'unica sequenza di DNA è possibile ot- 
tenere in mezz'ora 2 J " copie (circa un mi- 
liardo). Ma anche se esistesse un metodo 
analogo per i prioni, una tale moltiplica- 
zione richiederebbe tempi dell'ordine di 
un anno, salvo che non si trovi - cosa che 
ritengo possibile - un modo per accelerare 
notevolmente queste reazioni in vitro. Si 
potrebbe sfruttare per esempio il fatto che 
gli aggregati sono idrofobi e quindi si ac- 
cumulano di preferenza sulle membrane 
lipidiche. E torniamo a un'affermazione 
fatta all'inizio: la soluzione del problema 
della BSE - sempre che ce ne sia una - sta 
in un impiego appropriato delle conoscen- 
ze sul meccanismo e sulla cinetica di mol- 
tiplicazione dei prioni. Dobbiamo fare in 
modo dì moltiplicare rapidamente in pro- 
vetta piccole tracce dell'agente patogeno. Solo così potremo sco- 
prire l'infezione quando è ancora allo stadio iniziale. 

Anche il problema di che cosa sia un prione appare ora in una 
nuova luce. L'agente infettivo non è né una singola molecola 
proteica né un polimero. Si tratta piuttosto di un insieme dì ag- 
gregati proteici essenzialmente unidimensionali caratterizzati da 
catene di lunghezza media ben definita. Ma l'infettività non di- 
pende solo dalla lunghezza delle catene. Gli aggregati sono pre- 
sumibilmente legati alle membrane e quindi compaiono in forma 
di associazioni che sono la più piccola sorgente di infezione. 

Poiché solo le terminazioni delle catene sono infettive, una ca- 
tena di 100 000 unità di PrP sc è contagiosa 1000 volte di meno 
della stessa quantità di unità di PrP 50 distribuite in 1000 pezzi di 
catena di lunghezza media. 



www.lescienze.it 



4-9 



Le malattie da 



PRIONI 



nell'uomo 



La più nota e 
diffusa è la 
malattia di 
Creutzfeldt- 
Jakob. La 
recente 
comparsa 
di una nuova 
variante 
della malattia, 
collegata alla 
BSE, preoccupa 
scienziati 
e opinione 
pubblica 
50 



di Piero Parchi 





LO SCRAPIE DEGLI 
OVINI, la più diffusa 
delle encefalopatie 
spongiformì animali, 
e noto fin dal XVIII 
secolo, ma solo nel 
1939 se ne riconobbe 
la natura di malattia 
infettiva. In aito, 
danze rituali 
di una tribù di Papua, 
l'isola in cui 
fu individuata, 
negli anni cinquanta, 
a un'encefalopatia 
\ umana-ilkuru- 
5 in una popolazione 
5 dedita a pratiche 
- cannibalistiche. 



LE SCIENZE 393 /maggio 2001 




a rara malattia umana di Creutzfeldt-Jakob e la più diffusa encefalopatia spongiforme bovina [BSE] hanno in comu- 
ne l'appartenenza al gruppo delle malattìe da prìoni encefalopatie spongiformi trasmissibili. Il nome stesso ne de- 
scrive alcune caratteristiche: sono encefalopatie, in quanto ii tessuto più colpito è quello nervoso; sono trasmissibi- 
li, cioè infettive, e portano a una progressiva degenerazione del tessuto nervoso, che assume un aspetto spugnoso 
per la presenza di numerosi vacuoli. Sconosciute ai più prima della recente epidemia di BSE, queste malattie erano 
già da decenni oggetto di interesse da parte di microbiologi, biologi molecolari e biochimici perché il prione, 
come viene comunemente chiamato l'agente infettivo che ne è responsabile, ha caratteristiche così pecu- 
liari da mettere in crisi uno dei dogmi centrali della biologia: l'unicità degli acidi nucleici come depositari e trasportatori del- 
l'informazione biologica. Come spiega anche Manfred Eigen, la patogenesi di queste malattie è legata a una glicoproteina 
normalmente prodotta dall'ospite: la proteìna prìonìca cellulare (PrPC). Nella malattia, la PrPC si coverte in una forma ab- 
norme, parzialmente insolubile e resistente alla digestione con proteasi, la PrPSc PrP-res, che è il marcatore diagnostico 
di queste malattie. La conversione si associa a un cambiamento di conformazione della proteina, cui consegue l'insolubi- 
lità in soluzione acquosa fisiologica e la formazione di depositi proteici nel sistema nervoso. Ciò accomuna la proteina prio- 
nica ad altre proteine che sono alla base di malattie neurodegenerative come il Parkinson e l'Alzheimer, 



www.lescienze.it 



SI 




Le encefalopatie spongiformi hanno, nell'uo- 
mo, un'incidenza inferiore a due casi per milio- 
ne. Tra esse la malattia di Creutzfeldt-Jakob 
(CJ) è responsabile dì più del 90 per cento dei 
casi. Essa non ha alcuna relazione dimostrata 
con le forme animali di encefalopatia spon- 
giforme e va quindi distinta dalla nuova va- 
riante descritta da Robert Will, James [ronside e 
colleghi nel 1996, causata dallo stesso ceppo di 
prione responsabile della BSE. Le malattie da 
prioni nell'uomo sono classificate secondo la 
presunta origine della patologia, e sono le uni- 
che malattie neurologiche note che possono es- 
sere sia ereditarie sia infettive [si veda la tabella 
in basso nella pagina 
a fronte}. Si distin- 
guono forme sporadi- 
che o idiopatiche, for- 
me genetiche, spesso 
a carattere familiare, 
e forme acquisite. Tra 
queste, oltre al kuru e 
alla nuova variante di 
CJ, rari casi di CJ 
conseguenti a inter- 
venti medico- chirur- 
gici [si veda la tabella 
a pagina 55}. 

Breve stona delle encefalopatie 
spongiformi trasmissibili 

Lo scrapie degli ovini, la malattia da prioni animale più (Mu- 
sa e nota da più tempo, compare già in pubblicazioni del XVIII 
secolo, ma solo nel 1939 viene trasmesso sperimentalmente. Le 
encefalopatie spongiformi entrano cosi definitivamente nel capi- 
tolo delle malattie infettive. Negli anni cinquanta l'interesse si 
sposta in Nuova Guinea, dove Vincent Zigas, un giovane ufficia- 
le medico australiano, e Carli on Gajdusek, pediatra e virologo 
americano, descrivono il kuru, una malattia che si era diffusa in 
forma epidemica tra i membri della tribù Fore, a Papua, in segui- 
to a pratiche cannibalistiche. 

Nel 1959 William Hadlow, un patologo veterinario americano, 
rileva in una lettera a «The Lancet» somiglianze tra il kutu e lo 
scrapie, e suggerisce di studiare sperimentalmente la trasmissibi- 
lità del kuru. Rientrato negli Stati Uniti, Gajdusek coglie il sugge- 
rimento e, con Joe Gibus, riesce a trasmettere sia il kuru sia la 
malattia di CJ (nota dal 1921) a primati non umani. Queste ricer- 
che fruttano a Gajdusek nel 1976 il Nobel perla medicina. 

Gii anni sessanta vedono numerosi progressi anche nello stu- 
dio delle proprietà dell'agente causale dello scrapie. Si inizia a ca- 
pire che esso è estremamente resistente ai trattamenti che inatti- 
vano i virus e gli acidi nucleici, come la formalina, le nucleasi, le 
radiazioni ionizzanti, mentre è inattivato da agenti che distrug- 
gono le proteine, come le proteasi, eerti detergenti, gli acidi forti. 

Sulla base di questi dati, è un matematico, J. Griffìth, che per 
primo nel 1967 elabora l'ipotesi che t'agente eausale dello scrapie 
possa essere una proteina. Nel 1982, lavorando su preparazioni 
infettive di scrapie, Stanley Prusiner, dell'Università della Califor- 
nia, riesce a purificare una proteina parzialmente resistente alla 
digestione con proteasi, e ipotizza che la proteina da lui isolata 
sia il costituente fondamentale, se non l'unico, dell'agente infet- 
tivo, che denomina prione. Nel 1985, partendo da pezzi di se- 
quenza amminoacidica della proteina, si riesce a risalire alla se- 
quenza del gene codificante, che viene clonato. Sorprendente- 




LA DEGENERAZIONE SPONGIFORME (sopra, o sinistra) è la lesione 

più tipica e costante della malattia di CJ, anche se non 

è specifica di questa malattia. Essa si manifesta sotto forma di vacuoli 

[gli spazi bianchì netta fotografia). Con la tecnica 

immunoistochimica è possibile evidenziare intorno ai vacuoli depositi 

di proteina prionica patologica, ossia PrP-res (sopra, a destro). 

In questo caso i depositi si trovavano nella corteccia cerebrale 

di un paziente deceduto per malattia di CJ sporadica, il quale dal punto 

di vista molecolare era stato classificato come omozigote 

perla metionina al codone 129 e con PrP-res di tipo 2. Qui a fianco, 

depositi di proteina prionica patologica a forma di placche, rinvenuti 

nel cervelletto di un paziente eterozigote 

per la metionina/valina al codone 129 e con PrP-res di tipo 2. 



Le due proteine 

della Creutzfeldt-Jakob 



I 



n tutte le malattie da prioni umane - a eccezione di 
alcune varianti di malattia di Gerstmann-Stràussler- 



Scheinker- il test Western blot eseguito dopo trattamento 
con proteasi K evidenzia nella proteina prionica patologica 
(PrP-res] tre bande principali. Esse rappresentano tre 
isoforme della proteina con differente grado di 
glicosilazione; la banda superiore ha entrambi i siti di 
glicosilazione occupati, quella intermedia uno dei due, 
mentre quella inferiore 
nonèglicosilata. Nei 
soggetti affetti da 
malattia di Creutzfeldt- 
Jakob, ìa PrP-res 
mostra due andamenti 
distinti, che 
differiscono per massa 
molecolare relativa e 
che corrispondono a 
duepeptìdidi 

lunghezza diversa. La PrP-res di tipo 1 [a sinistra] ha una 
massa molecolare relativa di circa 21 chilodalton e include, 
per la maggior parte, il segmento 82-230 della proteìna 
prionica. La PrP-res di tipo 2 ha, invece, 
una massa molecolare relativa di circa 19 chilodalton 
e contiene, prevalentemente, il frammento 92-230 
della proteina prionica. 




52 



LE SCIENZE 393 /maggio 2001 



BRESCIA, MACELLD 
COMONALE.Un 
impiegato marchia 
con vernice blu te 
carcasse dei bovini 
diretti all'inceneritore. 
L'operazioneviene 
eseguita per 
assicurarsi che la 
carne non sia usata 
né perii consumo 
umano né 
perla produzione 
di mangimi. 




IN PILLOLE 



■ Negli ultimi anni i progressi della biologia molecolare, pur 
non avendo ancora risolto la controversia sulla natura 
biologica dei prioni, hanno migliorato notevolmente le nostre 
conoscenze sulle malattie e hanno fornito metodiche di 
indagine diagnostica sempre più sensibili. 

■ SÌ è ormai chiarito che la variabilità clinica e patologica 
delle malattie da prioni sporadiche nell'uomo è 
assimilabile a quella di forme animali come lo scrapie, 
che sappiamo dipendere sia dal ceppo di prione infettante, 
sia da un fattore genetico dell'ospite, ossia dalla sequenza 
del gene PRNP. 

■ I dati più recenti indicano che, nell'uomo, esistono almeno 
quattro ceppi distinti di prione e che il genotipo nel codone 
129 del PRNP modula la maggiore o minore suscettibilità 
verso questi ceppi, 

■ Questi studi hanno posto le basi per studi epidemiologici 
che, speriamo, risolveranno una volta per tutte, il quesito 
relativo all'origine e ai fattori di rischio della forma sporadica 
della malattia di Creutzfeldt-Jakob. 



classificazione delle encefalopatie u 



IDIOPATICHE 
GENETICHE 




ACQUISITE 



Malattia di Creutzfeldt-Jakob sporadica 
Insonnia fatale sporadica 

Malattia di Creutzfeldt-Jakob familiare 

Insonnia fatale familiare 

Malattia di Gerstmann-Stràussler-Scheinker 

Malattia di Creutzfeldt-Jakob iatrogena 
Nuova variante della Creutzfeldt-Jakob 
Kuru 



ter 



mente, il prodotto del gene è un normale costituente dell'ospite, 
una proteina ubiquitaria nei tessuti tiei vertebrati. Si giunge cosi 
a riconoscere che esisiono due forme di proteina prionica, la for- 
ma normale, o PrPC, e la forma proteasi-resistente, PrPSc o PrP- 
res. specifica della malattia. 

La proteina prionica cellulare 

Nell'uomo, LI gene della PrPC, localizzato sul braccio corto dei 
cromosoma 20, codifica per un peptide che, in forma matura, ha 
210 amminoacidi, un'ancora di glicolipidi a livello del terminale 
carbossilico e, non sempre, una u due catene laterali oligosacca- 
ridìche. Un'altra caraneristica della proteina, che sembra impor- 
tante ai fini della sua normale funzione, è la regione delle se- 
quenze ripetute, un dominio funzionale conservato, costituito da 
una sequenza di otto amminoacidi ripetuta cinque volte. La pro- 
teina matura si localizza soprattutto a livello delta membrana 
cellulare, dove si attacca tramite l'ancora glicoiipidica, e dove, 
probabilmente, svolge la sua funzione fisiologica. Parte della 
proteina, però, dopo essere arrivata sulla superficie cellulare, tor- 
na ciclicamente dentro la cellula dove subisce un taglio. In segui- 
to, una parte della proteina troncata toma in superficie, mentre 
l'altra raggiunge gli endosomi e i lisosomi che la degradano. 

La funzione fisiologica della PrPC è ignota. Finora le ricer- 
che hanno prodotto risultati frammentari e non conclusivi. Il 
più importante è stato ottenuto dal gruppo di Charles Weìs- 
smann, dell'Università di Zurigo, che ha dimostrato che i topi 
transgenici che non esprimono la proteina prionica si svilup- 
pano normalmente e non mostrano deficit comportamentali 
significativi. La proteina, quindi, o non è fondamentale per lo 
sviluppo e le funzioni del cervello o è, viceversa, cosi impor- 
tante che esistono altre proteine in grado di compensarne la 
mancanza. Studiando l'elettrofisiologia dell'ippocampo in questi 
animali. John Jefferys e John Coliinge del St. Mary's Hospital di 
Londra hanno però scoperto che essi presentano un deficit della 
trasmissione sinaptica mediata da recennri per il ncurotrasmet- 
titore GABA. Quest'ultimo risultato, tuttavia, rimane contro- 



www.lescienze.it 



53 



verso in quanto altri ricercatori non sono riusciti a riprodurlo. 
Net 1996 Irene Tobler, dell'Università di Zurigo, ha fatto un'al- 
tra osservazione potenzialmente interessante. Studiando il sonno 
e i ritmi circadiani in topi transgenici e in controlli normali, ha 
trovato una differenza nella durata del periodo di attività moto- 
ria giornaliera e nell'adattamento alla privazione dì sonno. Un 
anno dopo David Brown, del gruppo dì Hans Kretzschmar all'U- 
niversità di Gottingen, ha dimostrato che la PrPC potrebbe avere 
un ruolo come trasportatore dei rame all'interno della cellula, 
mentre lo stesso Brown e altri hanno notato che la proteina è 
espressa in alte concentrazioni nelle sinapsi, e che le cellule che 
ne sono prive sono più sensibili a vari tipi di stress. 

La biologia dei priori! 

Quanto alla natura biologica dei prioni, sono tre le teorie in 
gioco. La prima - e la più seguita - ha fruttato a Stanley Prusiner 
il premio Nobel per la medicina nel 1997, ed è Sa cosiddetta ipo- 
tesi della «sola proteina»: il prione non avrebbe acidi nucleici e il 
suo costituente fondamentale sarebbe una proteina, la PrP-res o 
una forma simile. Di recente, tuttavia, lo stesso Prusiner ha ipo- 
tizzato l'esistenza di una seconda proteina, o proteina X, con un 
ruolo nella patogenesi della malattia. In alternativa ci sono la 
teoria virale e la teoria de! virino. Entrambe postulano l'esistenza 
di una molecola info rotazionale in grado di replicarsi, probabil- 
mente un acido nucleico. Nella prima ipotest sarebbe l'acido nu- 
cleico di un piccolo virus con caratteristiche non convenzionali, 
per la seconda un acido nucleico o un'altra molecola legata a 
una molecola protettiva dell'ospite, in questo caso la PrP. La 
mancanza di modelli che riproducano spontaneamente la malat- 
tia naturale e di una spiegazione del fenomeno dei «ceppi» - che 
descriveremo più avanti - rimangono i principali ostacoli perla 
dimostrazione definitiva dell'ipotesi sostenuta da Prusiner. 

La ragione fondamentale per cui, a mio avviso, conviene 
mantenere una mente aperta sulla natura biologica dei prioni è 
che molti dati scientifici a sostegno delle varie teorie o non sono 
conclusivi o si prestano a più interpretazioni. Per esempio, il fat- 
to che la PrP-res sia l'unica molecola finora purificata dalle fra- 
zioni infette e che in queste compaiano piccole quantità dì acidi 
nucleici non esclude l'esistenza di un'altra molecola inrormazio- 
nale, dato che nuove molecole, acidi nucleici inclusi, possono es- 
sere molto difficili da trovare. E così i! fatto che i topi che non 
esprimono la proteina prionica non sì ammalano né lasciano re- 
plicare l'agente è compatibile sia con l'ipotesi che la PrP-res sia 
l'agente stesso, sia che la PrPC sia un cofattorc o un recettore 
coinvolto nella patogenesi di un'infezione esogena. 

Malattie misteriose 

Una delle caratteristiche più misteriose e affascinanti delle ma- 
lattie da prioni è la loro eterogeneità di sintomi e segni clinici. 
Nelle sue espressioni estreme, nell'uomo la malattia può mimare 
un ictus o un'encefalite acuta e portare al decesso in poche setti- 
mane, ma anche provocare un deterioramento intellettivo croni- 
co simile a quello causato dalla malattia di Alzheimer. Questa 
eterogeneità è ancora più evidente quando si esamina il cervello 
dopo l'autopsìa. Benché la degenerazione spongiforme sia una 
delle lesioni fondamentali, esistono casi in cui essa è assente o 
circoscritta ad alcune aree del cervello. Rari casi sono caratteriz- 
zati dalla presenza di depositi di sostanza amiloide simili alle 
placche senili delia malattìa di Alzheimer, mentre nella maggio- 
ranza di essi i depositi sono assentì. 

Studi sullo scrapie sperimentale, per lo più condotti aH'Institn- 
te for Animai Health di Edimburgo dagli anni settanta, avevano 
dimostrato che l'eterogeneità fenotipica di questa e altre malattie 
animali è legata a due variabili: il prione, che esiste in natura in 



54 



Genotipo e frequenza relativa della malattia 



Codone 129 



I 
I 



Popolazione caucastea 
normale [n=544] 

Casi deceduti per CJ 
sporadica [n=300] 

Casi con CJ sporadici 
ePrP-restipol(n=214) 

Casi con CJ sporadica 
e PrP-res tipo 2 (rt=86] 




m 



12* 



1?S 




Varianti molecolari e andamento delia malattia 


Gruppi CJ 
sporadica 


MM1 Wl MM2 MM2 MV2 WZ 
MV1 corticale tatamico 


Età media 

d'esordio 

(anni) 


66 39 64 52 59 61 


Durata 
(mesi) 


4 15 16 16 1? ? 




L'AUTORE 



PIERO PARCHI, medico neurologo, è ri- 
cercatore presso il Dipartimento di 
scienze neurologiche dell'Università dì 
Bologna, dove ha avviato un laborato- 
rio di diagnostica e ricerca sulle malat- 
tie da prioni Ha lavorato per sei anni 
nel gruppo diretto da Pierluigi Gambet- 
ti, presso la Division of Neuropatho- 
logy della Case Western Reserve Uni- 
versity, a Cleveland [USA], studiando 
la variabilità fenotipica nelle malattie 
da prioni e soprattutto nella malattia 
di Creutzfeldt-Jakob sporadica. Dal 
199? al 1999 è stato responsabile del- 
la diagnostica molecolare perii Centro 
di sorveglianza sulle malattie da prioni 
degli Stati Uniti, diretto da Gambetti. 



IL GENE PER LA PROTEINA PRIONICA, presente in tutta ia popolazione, 
ha un polimorfismo al codone 129, che è correlato alla malattia 
di Creutzfeldt-Jakob sporadica [in alto}. Gli omozigoti, soprattutto 
quelli MM, sono più suscettibili a sviluppare la malattia rispetto 
agli eterozigoti. La frequenza osservata è relativa ai 300 casi 
che sono stati studiati in cinque anni. La tabella inferiore evidenzia 
le varianti di CJ sporadica, definite dalla combinazione 
tra genotipo al codone 129 e il tipo dì PrP-res, correlate a differenti 
decorsi della malattia. 



ERIC EBOU tiene tra le 
braccia il figlio 
Arnaud, affetto dalla 
variante della 
malattia di CJ 
associata alla BSE 
Dopo una lunga 
sofferenza, il ragazzo 
è mancato all'inizio dì 
quest'anno. In basso, 
un'equipe di 
veterinari ispeziona 
le stalle di un 
allevamento italiano. 



forme sicuramente acquisite di malattia da prioni neU'uor 



Modalità di trasmissione 

Trapianta 
a inoculatone intracranìca 

Trapianti extracranici 
Inoculazione extracranica 




Inoculazione extracrantea 
o ingestione 





Esempi {numero di casi] Incubazione (anni) 

Duramadre [li. 
Elettrodi stere classici [2 

Cornea (2) 

Ormone della crescita [139] 

Emboliizazione arteriosa 

con dura madre liofilizzata (2) 

Esposizione alla BSE [ -9 1 
Trasmissione del kuru attraverso 
cannibalismo (qualche migliaio 



ceppi distìnti, e ii profilo genetico dell'animale che sviluppa l'in- 
fezione. I ricercatori di Edimburgo hanno dimostrato l'esistenza 
di almeno 10 ceppi dell'agente dello scrapie, ciascuno in grado di 
trasmettere una malattìa con caratteristiche specifiche dopo ino- 
culazione in animali dotati dello stesso patrimonio generico. Im- 
proprietà che distinguono i ceppi includono il tempo di incuba- 
zione, il tipo e la distribuzione delle lesioni e le modalità di distri- 
buzione intraeerebraie della proteina prionica patologica. È stato 
inoltre individuato un gene che oggi sappiamo essere il gene che 
codifica la PrP (PRNP), le cui variazioni di sequenza appaiono 
correlate a forme diverse della malattia. Negli ovini sono noti al- 
meno tre polimorfismi del PRNP in grado di influire sia sulla sin- 
tomatologia dello scrapie, sia sulla suscettibilità alla malattia. 

Mentre ia determinazione del genotipo PRNP è relativamente 
semplice, molto più complesso è il riconoscimento dei ceppi. Fi- 
no a pochi anni fa l'unico mezzo di indagine era la trasmissione 
ad animali singenid, un sistema che richiedeva, in media, alcuni 
anni. Tra il 1992 e il 1994 si è concretizzata una nuova possibi- 
lità di analisi. Richard Bessen e Richard Marsh, che studiavano 
l'encefalopatìa spongiforme dei visoni nel Wisconsin, osservaro- 
no differenze nelle proprietà fisico-chimiche della PrP-res isolata 
da due ceppi di prione e suggerirono che esse potevano costituire 
le basì molecolari della diversità tra ceppi. 

La malattia di Creutzfeldt-Jakob sporadica 

Fin dagli inizi del secolo si conosceva l'eterogeneità di questa 
malattìa. Ne! 1929 Heidenhain, un medico tedesco, aveva osser- 
vato tre pazienti con disturbi visivi presenti dall'esordio della 
malattia e dovuti, come dimostrò l'autopsia, a gravi lesioni nelle 



55 



aree visive della corteccia occipitale. Poi, ai tri autori descrissero 
diverse sintomatologie legate a particolari localizzazioni anato- 
miche delie lesioni. La descrizione di questi e altri fenotipi, tutta- 
vìa, si è sempre basata su un numero limitato di casi e non ha 
mai portato a una classificazione sistematica e definitiva. Negli 
anni ottanta, addirittura, non ci sono stari ulteriori tentativi di 
classificare la malattia in varianti, e tra i ricercatori erano preval- 
si coloro che pensavano che la CJ sporadica fosse una malattia 
nella quale era impossibile definire i limiti fra diversi fenotipi. 

Partendo da dati epidemiologici, che hanno sempre dimostra- 
to un'incidenza piuttosto omogenea della malattia, e l'assenza, 
quindi, di focolai epidemici, venne proposto che la forma spora- 
dica fosse causata da un evento stocastico, come una mutazione 
somatica o un errore del metabolismo della proteina, che agireb- 
be da evento scatenante la conversione da PrPC a PrP-res. Se- 
condo questa ipotesi, !a malattia sarebbe quindi favorita dall'in- 
vecchiamento dei meccanismi di controllo cellulare e dovrebbe 
aumentare con l'avanzare dell'età. 

Nel 1994 il gruppo di Pierluigi Gambetti presso la Case We- 
stern Reserve University di Cleveland - di cui facevo parte dal 
1993 - ha iniziato a occuparsi di CJ sporadica per chiarire tre 
punti: lo spettro di espressione fenotipica della malattia e se essa 
sia o meno caratterizzata da fenotipi definiti; il molo del poli- 
morfismo del codone 1 29 del PRNP, ed eventualmente di altri 
polimorfismi, nell'espressione fenotipica della malattia; le pro- 
prietà fisi co- eh imi eh e della PrP-res, per stabilire se essa mostri 
nell'uomo strutture correlabili, come negli animali, a ceppi di- 
stinti di prione. 

Per raggiungere questo scopo bisognava raccogliere un nume- 
ro significativo di casi. Grazie anche alla collaborazione di altri 
gruppi, in primo luogo quello di Hans Kretzschmar dell'Univer- 
sità di Gòttingen, è stato possìbile studiare, in cinque anni, 300 
casi, un numero molto significativo se si considera l'incidenza 
della malattia e il fatto che sono stati inclusi solo casi con dia- 
gnosi cena confermata dall'autopsia. La novità più importante 
riguardava l'analisi biochimica della PrP-res, che non era mai 
stata caratterizzata nella CJ sporadica. Anni prima, alcuni ricer- 
catori rie! grappo rii Gambetti avevano osservato varianti biochì- 
miche della proteina associate a fanne familiari della malattia, 
che però non erano mai state messe in relazione al fenomeno dei 
ceppi. Ciò che avevamo osservato già nel 1994, in un numero li- 
mitato di casi, era la presenza di due andamenti distìnti dì migra- 
zione elettroforetica (si feda ia finestra a pagina 52): la PrP-res 
rii tipo 1 mostrava una massa molecolare relativa di 2 1 chilodal- 
ton, la tipo 2 di 19 chilodalton. 

Questa differenza dipende dalia diversa lunghezza dei due 
frammenti proteici. In collaborazione con Shu Chen, aneli egli 
del grappo di Gambetti, abbiamo purificato e sequen2Ìato le PrP- 
res estratte da una quarantina di casi di malattia da prioni. Ne è 
scaturito che la componente principale della PrP-res di tipo 1 - 
che si riscontra in circa due terzi dei casi - termina a livello del- 
l'amminoacido in posizione 82, mentre quella del tipo 2 termina 
in posizione 97. Sia il tipo 1 sia il tipo 2 si possono associare a 
tutti e tre i diversi genotipi determinati dalla presenza dell'ammi- 
noacido metìonina o valina nel codone 1 29, ma la maggioranza 
dei soggetti omozigoti per la metìonina mostra la PrP-res di tipo 
1. mentre la maggioranza degli omozigoti valina mostra il tipo 2 
[si feda la tabella in allo a pagina 54). 

Una volta definito che dalla combinazione tra tipo di PrP-res 
( 1 o 2) e genotipo del codone 129 (MM, MV o W) potevamo di- 
stinguere sei grappi di pazienti, dovevamo dimostrare se, e di 
quanto, essi differissero sul piano clinico e patologico. Sono tre le 
principali caratteristiche della patologia delle malattia da prioni 
che permettono una distinzione tra i diversi fenotipi: la gravità 
relativa delle lesioni fondamentali - degenerazione spongiforme, 
proliferazione e attivazione degli astranti e perdita neuronale - 




nelle diverse aree anatomiche; la presenza e le caratteristiche 
morfologiche riì certe lesioni (placche amiloidi, degenerazione 
spongiforme, inclusioni intracellulari); il tipo di deposizione del- 
la PrP-res rivelato dalle colorazioni immunoistochimiche. 

Studiando queste variabili in 1 3 aree rie! sistema nervoso cen- 
trale abbiamo identificato sei varianti maggiori, distinguibili se- 
condo criteri patologici, che si correlavano significativamente 
con i sei gruppi a livello molecolare. A ogni combinazione geno- 
tipo-tipo di proteina corrisponde un fenotipo distìnto con due ec- 
cezioni: la prima è che l soggetti MM1 e MV1 non sono distin- 
guibili, e l'altra è che la combinazione MM2 include due fenotipi 
distìnti, che abbiamo chiamato corticale e talamico, in base alla 
sede anatomica delle lesioni più significative. 

L'analisi delle caratteristiche cliniche ha confermato che esi- 
stono sostanziali differenze tra i sei grappi di pazienti. Prima fra 
tutte l'età d'esordio della malattia, un dato molto importante per- 
ché se la CJ sporadica ha davvero origine da una mutazione so- 
matica o ria un errore del metabolismo, ci sì aspetterebbe un au- 
mento dell'incidenza con il progredire dell'età. AI contrario, i no- 
stri risultati mostrano che, in due dei sei grappi, l'età media d'e- 
sordio è risultata addirittura di 10 e 20 anni più precoce rispetto 
agli altri. In un grappo (Wl) arrivava a essere addirittura sotto i 
40 anni d'età. Per quanto riguarda il decorso della malattìa, inve- 
ce, esso era più breve nei soggetti MM 1 o MV1 [si veda la tabella 
in basso a pagina 54), a ulteriore conferma dell'esistenza di diffe- 
renze biologiche fondamentali. 

I risultati mostrano che la malattia di CJ sporadica esiste in al- 
meno sei varianti riconoscibili e classificabili. A livello molecola- 
re, il genotipo PRNP determinato dal codone 129 in combinazio- 
ne con il tipo di PrP-res fa prevedere, nella maggioranza dei casi, 
il fenotipo clinico-patologico. L'inriividuazione di più varianti fe- 
notipiche in soggetti con lo stesso genotipo PRNP ha portato la 
prima prova, sia pure indiretta, dell'esistenza di diversi ceppi rii 
prione umano, ora dimostrata direttamente mediante studi rii tra- 
smissibilità. Ci sarebbe quindi mio stretto parallelismo tra la ma- 
lattia di CJ sporadica e malattie animali come lo scrapie. Ciò 
rafforza l'ipotesi di un'origine esogena, mentre diventa più diffi- 
cile, a mio avviso, sostenere l'origine spontanea della malattia. 

Se questi studi non hanno risolto i! problema delle cause della 



56 



LE SCIENZE 393 /maggio 2 OC 1 




UN CAMPIONE DI TESSUTO CEREBRALE BOVINO all'esame di un veterinario 
di Oldenburg, in Germania [a sinistra]. Qui sopra, un donatore di sangue. 
Alla fine del 2000 la Francia ha cominciata a prendere in considerazione 
l'ipotesi di introdurre misure precauzionali come telimi nazione 
dei leucociti e it filtraggio del plasma, per ridurre i rischi di trasmissione 
della nuova variante della malattia di CJ associata alla BSE. 

malattia, hanno però fornito una solida base agii studi epidemio- 
logici che dovranno rivalutarne l'andamento temporale e spazia- 
le e cercare gli eventuali fattori di rischio associali. È possibile, 
infatti, che ciascuno dei ceppi che causano queste varianti abbia 
proprietà biologiche distinte e fattori di rischio diversi. Un poten- 
ziale andamento a piccole epidemie, che deporrebbe a favore di 
un'origine esogena, potrebbe inoltre essere stato mascherato dal 
fatto che gli studi sono sempre stati condotti considerando la 
malattia come un'unica entità. 

La nuova variante associata alta BSE 

Nel marzo 1996 Bob Will, neurologo di Edimburgo e direttore 
del Centro di sorveglianza del Regno Unito sulla malattìa di CJ, 
annunciò di aver osservato 10 casi le cui caratteristiche suggeri- 
vano l'esistenza di una nuova variante della malattia. Era avve- 
nuto ciò che quasi tutti ritenevano impossibile: ii prione aveva 
saltato la barriera di specie ed era passato dai bovini all'uomo. 

Le prove che questa era la spiegazione corretta sono puntual- 
mente arrivate. La prima era epidemiologica: ia malattia era nuo- 
va, ed era stata osservata ne! Regno Unito, il paese più esposto 
alla BSE. Poi è arrivata la seconda: Corinne Lasmezas del gruppo 
di Dominique Dormont del Commissariat à l'Energìe Atomique, 
presso Parigi, ha dimostrato che la BSE trasmessa al cinomolgo, 
un macaco giavanese il cui PRNP ha un'omologia de! 95 per 
cento con il gene umano, produceva una malattia molto simile 
alla nuova variante di CJ. Infine Moira Brace e altri ricercatori 
dell'Institute for Animai Health di Edimburgo hanno dimostrato 
che la nuova variante di CJ trasmessa sperimentalmente ai topi 
mostra lo stesso tempo di incubazione, profilo di lesione e pro- 
prietà della PrP-res dell'inoculo di BSE. Era la prova definitiva 
che lo stesso ceppo di prione causa le due malattie. 

A cinque anni daila sua individuazione, l'incidenza della nuo- 
va variante di G rimane fortunatamente bassa: poco meno di 
un centinaio di casi nel Regno Unito, tre in Francia, e uno in Ir- 
landa. Ma quanti casi ci dobbiamo aspettare? Questa, in fondo, è 
la domanda a cui si vorrebbe dare una risposta, ma che. invece, 
rimane circondata da incertezze. In mancanza dei dati per calco- 
lare il tempo di incubazione medio della malattia nell'uomo, le 



valutazioni sulla sua futura incidenza rimangono approssimate. 

La nuova variante di CJ colpisce soprattutto soggetti giovani. 
L'età media d'esordio dei sintomi è vicina ai 30 anni. In più delia 
metà dei casi le sue manifestazioni cliniche consistono in distur- 
bi psichici; i segni neurologici comprendono disturbi sensitivi, 
perdita di memoria e disturbi dell'equilibrio, mentre il deteriora- 
mento delle facoltà mentali e le contrazioni involontarie dei mu- 
scoli, caratteristici delle encefalopatie spongiforma compaiono 
più tardi. 11 segno più specifico alia risonanza magnetica nuclea- 
re è un aumentato segnale bilaterale a livello di un nucleo dei ta- 
lamo, il pulvinar, che si riscontra in circa il 70 per cento dei casi. 

Il quadro istopatologico osservabile nell'autopsia è caratteriz- 
zato dalle placche «floride» nella corteccia cerebrale e cerebellare. 
Si tratta rii accumuli rii sostanza amiloirie formata da aggregati 
insolubili rii PrP-res. circondati da un alone ricco di vacuoli. La 
PrP-res ha mostrato le stesse caratteristiche fisico-chimiche in 
tutti i soggetti finora testati, a conferma che la malattia è causata 
da un singoio ceppo di prione. La mobilità elettroforetica delia 
PrP-res e di tipo 2 e, quindi, comune ari altri fenotipi di malattia 
di CJ, ma il rapporto percentuale della porzione glicoproteica la 
distingue da tutte le altre varianti sporadiche e acquisite di CJ. 

Per quanto riguarda un'eventuale predisposizione genetica, la 
nuova variante non si comporta diversamente dalle altre malat- 
tie da prioni umane: anche in questo caso il polimorfismo del co- 
done 1 29 ha un ruolo importante, dato che i soggetti che hanno 
sviluppato !a malattia e sono stati testati sono risultati omozigoti 
peT la metìonina. Purtroppo però non possiamo affermare che i 
portatori degli altri due genotipi non saranno interessati dalla 
malattia in quanto, in teoria, potrebbero ancora essere in fase 
presintomatica. Non si può escludere, infatti, che i tempi di incu- 
bazione siano più lunghi nei soggetti MV e W rispetto agli MM. 



BIBLIOGRAFIA 



PARCHI P. e altri, Classificatian of Sporadic Creutzfetdt-Jakob 
Disease Based on Molecalar and Phenotypic Analysis of 300 
Subjects, in « Annalsof Neuralogu», 46, pp. 224-233, 1999. 
PARCHI P., Creutzfetdt-Jakob Disease and Fatai Insomnia, in The 
Neurodegenerative Dementia, a cura di C. Clark e J, 0- Trojanow- 
ski, McGraw-HMI, Capitolo 26. pp. 341-365, 2000. 
PARCHI P. e altri, Genetic tnfluence on the Struaural Variationsof 
theAbnormalPrìon Protein, in «Proeeedings of the National Aca- 
demyofSciences»,29,9?[18],pp,10 166-10 122,2000. 
WILL H. G. e altri, Oiagnasisof New VarìantC.J. Oiseasejn «Annals 
ofNeurology». 42, pp. 525-582,2000. 



www.lescienze.it 



s? 



Ili • 

sull univers 



Frutto di tecnologie 

avanzatissime, 

il Large Binocular Telescope 

sul Mount Graham, in Arizona, 

sarà quasi tutto 

di costruzione italiana 



# 










C-2 ' 





| ■ 



f 



i 4 



di Aldo Conti 



ix ì 



LA STRUTTURA A TRALICCIO DELLA CUPOLA 

— i ancora visibile nel mano 1999. 

sito prescelto perla costruito — 

del Large Binocular Telescope 

i l'Emerald Peak, sul Mount Graham, 

in Arizona, a 3Z0O metri sul livello 

del mare. In alto si destra, alcune fasi 

della costruzione della struttura 

di elevazione del telescopio, presso 

l'Ansaldo Energia di Milano. 



Un telescopio con due «occhi»? Già. Sem- 
bra sia questo l'ultimo grido dell'astrono- 
mia osservativa. Insomma, uno strumen- 
to dotato di due grandi specchi le cui im- 
magini possono essere combinate con 
tecniche interferometriche in modo da ot- 
tenere la stessa risoluzione che si avrebbe 
con un unico strumento, ma di dimensioni molto maggiori. 
È questo il formidabile progresso tecnologico reso possibi- 
le dalle cosiddette ottiche adattative, sempre più diffuse in 
campo astronomico. Ma, prima di entrare in argomento, 
meglio fare un passo indietro. Fino al 19S0 tutte le scoper- 
I te astronomiche furano il prodotto delle osservazioni con- 
: dotte con i telescopi ottici. In seguito, l'astronomia potè 
sfruttare gli sviluppi tecnologici della ricerca bellica, come i 
ì radar e i razzi, aprendo nuove finestre osservative nello 



61 



IN PILLOLE 



■ L'astronomìa dalla Terra sta conoscendo un perìodo di 
grande sviluppo grazie ai recenti progressi tecnologici. Le 
ottiche adattative permettono di compensare le turbolenze 
dell'atmosfera che disturbano le osservazioni. Grazie a ciò è 
possibile sfruttare le tecniche dì interferometrìa che 
combinano le immagini di strumenti distanti, con prestazioni 
migliori rispetto ai costosi telescopi spaziali come Hubble, 

■ il Large BinocularTetescope sfrutta due specchi primari da 
8,4 metri di diametro con una risoluzione equivalente a quella 
di un singolo specchio da 22,8 metri. L'allestimento su un'unica 
montatura non permette di variarne ta distanza reciproca ma è 
più semplice ed economico. 

■ Il punto di forza dell'LBT sarà il grande campo visuale 
corretto, pari a 2 minuti d'arco. Ciò consentirà un'ampia gamma 
di utilizzazioni in astrofisica e cosmologia. 



spettro elettromagnetico e iniziando l'esplorazione diretta dei 
sistema solare. Tuttavia, nel progetto dei telescopi ottici non si 
verificarono praticamente progressi dalla costruzione del famo- 
so telescopio di 5 metri di Monte Palomar, operativo dal 1947, 
fino ai tardi anni ottanta. 

Con il lancio dello Hubble Space Telescope - una volta viste 
le eccezionali prestazioni dello strumento, dopo i primi intop- 
pi - si pensò che Io spazio sarebbe stato l'ultima frontiera del- 
l'astronomia. Ancora oggi però, a oltre dieci anni 
dal lancio di Hubble, non è possibile prevedere 
con sicurezza se e quando potremo vedere all'o- 
pera i suoi successori. 11 telescopio spaziale si è 
infatti rivelato estremamente costoso e di diffi- 
cile manutenzione, dato che ogni riparazione 
richiede un'apposita missione del pro- 
gramma Spaee Shuttle. Oltre a que- 
sto, le piccole dimensioni dello spec- 
chio di Hubble si sono comunque di- 
mostrate un limite, nonostante la sua 
posizione di indubbio vantaggio. Pro- 
babilmente, più che nello spazio, il vero 
futuro dell'astronomia ottica sarà sulla Lu- 
na, ma questo obiettivo è a tal punto ambi- 
zioso da sfiorare la fantascienza, almeno per 
il momento. 

Nel frattempo, gli astronomi non sono rimasti 
ad aspettare e, grazie soprattutto al vertiginoso 
aumento di potenza dei computer di questi 
ultimi anni, sono riusciti a mettere a punto 
valide alternative terrestri agli strumenti spa- 
ziali. I computer hanno dapprima permesso 
di rendere i telescopi molto più compatti ed 
economici, utilizzando montature altazimutali, 
con un asse orizzontale e uno verticale - come 
un cavalletto fotografico - al posto delle ingombranti monta- 
ture equatoriali. 

Il progresso più importante è però stata l'introduzione delle 
ottiche adattative, in grado di modificarsi, adeguandosi in tem- 
po reale per annullare gli effetti della turbolenza atmosferica, 
che fino a oggi ha rappresentato il vero limite per la risoluzio- 
ne degli strumenti astronomici. 

L'impatto di queste ottiche sui telescopi è stalo straordinario. 
Poter annullare gli effetti della turbolenza atmosferica sull'im- 
magine ha fatto crollare una delle ragioni principali per mette- 
re un telescopio nello spazio. Già ora, infatti, telescopi mollo 



62 




I DUE GRANDI SPECCHI 

da 8,4 metri del Large 

BinocularTetescope 

focalizzano la luce 

che li colpisce in due 

punti posti a soli 9,6 

metri dalla loro 

superfìcie. Nella 

simulazione al 

computer del lato 

anteriore [sopro), 

sono evidenziati i 

percorsi dei raggi di 

luce riflessi dagli 

specchi. Qui a 

fianco, le dimensioni 

della struttura 

completa 

confrontate con 

quelle di una persona 

[in grigio all'estrema 

sinistro]. 

In alto nella pagina 

a fianco, i supporti 

posti sui lato 

inferiore di uno 

degli specchi 

vengono puliti 

prima del 

montaggio. 



più grandi di Hubble, come quelli del Very Large Telescope eu- 
ropeo, riescono con le ottiche adattative a sfruttare appieno le 
grandi dimensioni dei loro specchi, raggiungendo una risolu- 
zione spesso superiore a quella del telescopio spaziale. 

Ma il vero salto di qualità è stato determinato da un altro 
fattore, I radioastronomi utilizzano infatti già da molti anni 
l'interferometria, che permette di combinare le immagini dì 
due strumenti distanti per ricavarne una di risoluzione pari a 
quella ottenibile con uno strumento unico di diametro uguale 
alla separazione tra i due. Questa tecnica non avrebbe prodotto 
alcun vantaggio prima dell'introduzione delle ottiche adattati- 




Gli antagonisti di LBT 

Il Very Large Telescope dell'ESO è il più ambizioso 
interferometro ottico, con i suoi quattro telescopi da 8,2 
metri, con una separazione massima di circa 200 metri, che 
possono essere utilizzati anche separatamente, per osservare 
oggetti diversi. È situato in Cile, in un osservatorio 
appositamente costruito che non dovrebbe ospitare altri 
strumenti. Negli scorsi mesi è entrato in funzione l'ultimo 
telescopio e sono state fatte ie prime prove dell'interferometro. 
Anche l'interferometro del Keck ha visto la sua prima luce di 
recente. In questo caso si tratta di due telescopi con specchi di 
10 metri di diametro, ciascuno costituito da 36 segmenti 
esagonali che lavorano insieme. Sì tratta dei più grandi 
telescopi ottici e infrarossi in grado, come VLT, di far funzionare 
i suoi due componenti autonomamente. Il telescopio Keck è 
ospitato nell'Osservatorio del monte Mauna Kea, nelle isole 
Hawaii. 

Sempre sul Mauna Kea si trova Subaru, un telescopio 
giapponese da 8,2 metri di diametro. A differenza degli 
strumenti di cui abbiamo detto sopra, non si tratta di un 
interferometro, ma di uno strumento progettato in modo da 
utilizzare al meglio uno specchio singolo. Rispetto agli 
Strumenti citati ha quindi una risoluzione inferiore; tuttavia 
è in grado di competere con LBT pervia del suo grande 
campo visuale corretto, che gli permette di osservare 
anche oggetti estesi. 




L'INTERFEROMETRO 
Keck [o sinistro) e il 
telescopio Subaru [in 
bosso) sfruttano le 
altitudini del monte 
Mauna Kea, nelle 
Hawaii. Il VLT dell'ESO 
[qui sotto] è ospitato 
dall'Osservatorio 
Paranal, in Cile. 



LE SCIENZE 393 /maggio 2001 



ve, dal momento che il vero limite alla risoluzione era dovuto 
alla turbolenza atmosferica. Ora che questo limite è stato supe- 
rato, tuttavia, sono in fase avanzata di costruzione almeno tre 
grandi interferometri ottici. Tra questi il Keck. statunitense, co- 
struito sulle cime del monte Mauna Kea, nelle isole Hawaii, è 
stato usato in configurazione interferometrica per la prima 
volta nel mese di marzo. 

Ma è un altro Io strumento più interessante, un po' per le 
sue caratteristiche innovative, e un po' perché la sua costruzio- 
ne vede una consistente partecipazione italiana: il Large Bino- 
cular Telescope. 



www.lescienze.it 




L'AUTORE 



ALDO CONTI, dottore di ricerca in Fisica, è giornalista scientifico 
e sì occupa principalmente di astrofisica e astronomia. Desi- 
dera ringraziare Piero Salinari dell'Osservatorio astrofisico di 
Arcetri per le utilissime discussioni. 



PIÙ DI 20 TONNELLATE DI SILICATO DI BORO sono state necessarie 

per la fabbricazione degli specchi. I grossi cristalli (a destra] sono stati 

distribuiti sulla superfìcie del supporto [sotto] prima della fusione. 





ONO DEI DOE SPECCHI 
primari (m dosso] al 
termine del processo 
di fusione circondata 
dallo staff che lo ha 
realizzato. 

Nella pagina a fianco, 
una delle fasi di 
lavorazione: ben 
visibile la superficie 
inferiore di uno 
specchio. 



Il Large B inocular Telescope 

Come dice il nome, LBT è un grande 
telescopio con due specchi separati che, 
in futuro, funzioneranno come un unico 
interferometro. In questo caso, il termine 
binocular, che può farci pensare ai picco- 
li binocoli che usiamo per osservare la 
natura e, a volte, anche le stelle, è piutto- 
sto riduttivo. I due specchi di LBT sono 
infatti i più grandi specchi monolitici del 
mondo, con un diametro di 8,4 metri cia- 
scuno e il considerevole peso di 16 ton- 
nellate. A differenza di un binocolo, poi, i due occhi di LBT po- 
tranno venire usati separatamente oppure insieme, in una con- 
figurazione interferomerrica che darà allo strumento una riso- 
luzione equivalente a quella di un unico specchio da 22,8 me- 
tri. Le dimensioni dei singoli specchi restano comunque impor- 
tanti per la capacità del telescopio di raccogliere la luce, pari a 
quella di un'unico specchio di 1 1,8 metri di diametro. 

! ra le cara iterisi iene più e\ idenri, che distìnguono LBT dagli 
altri interferomeiri ottici, vale la pena di osservare che entram- 
bi gli specchi sono alloggiati sulla stessa montatura. Se da una 
parte questo non permette di variarne la distanza, dall'altra 
rende lo strumento molto compatto, più semplice da utilizzare e 
sicuramente più economico. In termini di costo per superficie di 
raccolta, un parametro importante nell'economia di un tele- 




scopio, LBT batte tutti i concorrenti direni di un fattore quali ro. 
11 Large Binocular Telescope è il frutto di una collaborazione 
fra la comunità astronomica italiana, rappresentata dall'Osser- 
vatorio astrofisico di Arcetri, due Università dell'Arizona e altre 
istituzioni, fra le quali il Max-Planck-Institut (tir Extraterrestri - 
sehe Physik, in Germania, e la Ohio State University, All'inizio 
il consorzio che aveva promosso la costruzione del telescopio 
comprendeva meno membri, tanto che si pensava di rimandare 
la costruzione del secondo specchio a tempi migliori, in cui si 
fossero resi disponibili nuovi fondi. Nel 1997 però, con l'ingres- 
so della Ohio State University, fu possibile dare il via alla co- 
struzione dell'intero strumento. La realizzazione incominciò nel 
1998, quando il contratto per la costruzione della struttura 
principale di LBT fu affidato alla Ansaldo di Milano. Il contri- 



64 



LE SCIENZE 393 /maggio 2001 




TOT 

■ f% » http://medusa.as. 
I ^JU arizona.edu/ibtwww/ 
^M^B Le fasi della costruzione 
e le caratteristiche tecniche dell'LBT. 

■# http://lbtwww.3rcetri.astrQ.it/ 

a rcetri/d e ve 1 pine nts/ 

Lo sviluppo della parte italiana del 

progetto. 

»♦ http://www.eso.org/paranal/ 
Tutto sul VLT, concorrente dell'LBT. 



Che cosa vedrà TLBT 

Il progetto del Large Binocular Telescope ha come obiettivo 
l'utilizzo in vari campi dell'astrofisica: eccone alcuni. 

COSMOLOGIA 




Il grande campo corretto e la sensibilità permetteranno a 
LBT di osservare le più remote profondità del cosmo, alla 
ricerca di indizi sulla formazione delle galassie. 

LA RICERCA DI PIANETI ATTORNO AD ALTRE STELLE 




L'interferometro infrarosso di LBT potrà anche operare in 
modalità di annullamento dell'immagine, in cui la luce di 
una stella viene cancellata, permettendo al telescopio di 
osservarne le regioni immediatamente circostanti. In 
questo modo, LBT sarebbe in grado di osservare Giove in 
orbita attorno al Sole anche da una distanza di 3S anni luce. 
Anche se resta relativamente improbabile che si possa 
osservare direttamente un pianeta extrasolare, anche la 
NASA si è interessata a questa caratteristica di LBT, che è lo 
strumento ideale per identificare le stelle più importanti da 
studiare con i futuri osservatori spaziali. 

LA FORMAZIONE 
DI STELLE E PIANETI 
La grande risoluzione 
ì di L8T nell'infrarosso 
| permetterà a questo 
1 strumento dì penetrare 
I le cortine di polvere 
g in cui avviene 
È la formazione 
1 delle stelle, svelando 
i i misteri di questo 
:, processo. 



www.lescienze.it 




65 



buto italiano va però ben oltre la montatura; il sistema idrauli- 
co per il movimento del telescopio è stato infatti realizzato dal- 
la Tomelleri di Verona, mentre l'Osservatorio di Arcetri è impe- 
gnato nella costruzione del delicatissimo specchio secondario 
adattativo. 

Il telescopio è ora in fase avanzata di premontaggio, con la 
sua struttura principale quasi completamente eretta nei capan- 
noni dell'Ansaldo. A premontaggio finito verrà verificato il 
funzionamento dei movimenti della montatura, prima di sman- 
tellare lo strumento per spedirlo negli Stati Uniti, verso la sua 
collocazione definitiva nell'Osservatorio di Mount Graham, in 
Arizona, Il viaggio sarà un problema non da poco, visto che 
l'intera struttura pesa circa 600 tonnellate e che alcuni pezzi 
hanno dimensioni considerevoli. 

La «prima luce» dello strumento - il l'emissage dei telescopi - 
è prevista per il 2003, anche se per allora il telescopio avrà un 
occhio solo. L'entrata in funzione del secondo specchio seguirà 
infatti un anno dopo, ma ci vorrà poi ancora qualche tempo 
perché si possano mettere a punto gli strumenti per l'osserva- 
zione ìnterferometrica, in modo da sfruttare la piena potenza 
dello strumento. 

Le ottiche 

Il cuore di ogni telescopio è nelle sue 
ottiche. E nel Large Binocular Telescope 
ne batte uno molto potente, formato dai 
suoi specchi di 8,4 metri, separati da una 
distanza di circa 6 metri. Degli specchi, 
quello che colpisce è il rapporto focale 
estremamente ridotto; nonostante le loro 
dimensioni, questi specchi focalizzano la 
luce che li colpisce a soli 9,6 metri di di- 
stanza dal loro centro. Ciò fa sì che la 
curvatura degli specchi sia impressionan- 
te: sono spessi 89 centimetri ai bordi e 
solo 44 al centro. E la corta lunghezza 
focale, di nuovo, rappresenta un grande 
vantaggio costruttivo per il telescopio, 
garantendo una grande compattezza del- 
l'intera struttura. 

Mentre la meccanica è in fase di co- 
struzione all'Ansaldo, i due specchi sono già stati fusi presso lo 
Steward Observatory Mirrar Laboratory dell'Università dell'Ari- 
zona, un centro esperto nella lavorazione di queste grandi otti- 
che. Si tratta di due specchi monolitici realizzati a nido d'ape, 
ciascuno formato da 1662 esagoni cavi, che ne rendono la den- 
sità pari ad appena il 20 per cento di quella del solido. Nella 
fornace di fusione gli specchi sono stati fatti ruotare, in modo 
da ottenere una forma parabolica già in questa fase. Conside- 
rando infatti la curvatura degli specchi, rimuovere tutto ma- 
teriale necessario da uno specchio piano sarebbe stata un'im- 
presa ardua. 

Al momento, il primo dei due specchi è già in fase di lavora- 
zione ottica. Una curiosità: per colpa di una perdita di vetro 
nella fornace, il primo specchio risultò troppo sottile in alcune 
sue pani. Fu quindi eseguita una seconda fusione, dopo aver ri- 
parato la perdita, aggiungendo 2 tonnellate di vetro e ottenen- 
do alla fine uno specchio perfetto. Nel telescopio, gli specchi 
verranno supportati da oltre i 60 attuatoli meccanici lenti, in 
grado di compensare la gravità e le eventuali pressioni del ven- 
to per mantenerne la forma desiderata. 

Lo specchio secondario fa invece parte dei numerosi compo- 
nenti del telescopio che vengono costruiti da un consorzio di 
aziende italiane, sotto la direzione dell'Osservatorio di Arcetri. 
Con il suo sistema adattativo, lo specchio secondario è proba- 





LA CUPOLA DEL 
TELESCOPIO 
[sopra] era ormai 
coiti pi eia nel 
dicembre 2000. A 
sinistra e nella pagina 
a fianco, due Fasi 
della costruzione. Un 
rigoroso calendario 
ha permesso il 
completamento 
dell'opera prima 
dell'arrivo della neve 
e delle rigide 
temperature 
invernali. 



miniente l'elemento ottico più critico. Si tratta di uno specchio 
molto leggero, dello spessore di appena 2 millimetri, che per- 
mette agli attuatoli meccanici che ne controllano la forma di 
«adattarlo» alla turbolenza mille volte al secondo. Solo, i calco- 
li necessari per questo compito sono cosi numerosi da richiede- 
re un supercalcolatore per poterli eseguire in tempo reale. 

Vista la complessità dello schema ottico, i vari componenti 
verranno messi a punto uno alla volta. E questa opportunità 
rappresenta un grande vantaggio rispetto ai telescopi nello spa- 
zio, che devono funzionare perfettamente al primo colpo. Al 
momento della prima luce, per esempio, il secondario adattati- 
vo non verrà usato, ma ci sarà una camera di ripresa diretta- 
mente al fuoco primario del telescopio. Un po' per volta verran- 
no aggiunti diversi strumenti, fino al momento in cui sarà mes- 
so in funzione il secondo specchio e il sistema interferometrico. 

In realtà, gli interferometri sono due. Il primo si chiama 
Thermal InfraRed lnterferometer, ed è in fase di progettazione 
presso So Steward Observatory, Si tratta di uno strumento per 
l'infrarosso, in grado di lavorare in un intervallo di lunghezze 
d'onda tra 2 e 10 micrometri. Per poter operare a queste lun- 
ghezze d'onda, l'intero gruppo interferometrico dovrà essere 
raffreddato a temperature di poche decine di kelvin, per evitare 
il disturbo delle emissioni delle sue parti. 

Il vantaggio di LBT rispetto ai suoi concorrenti è il suo 



grande campo visuale corretto, ancora una volta frutto del 
progetto ottico dello strumento, grazie alla vicinanza degli 
specchi. Mentre, per esempio, VLT avrà un campo corretto di 
un secondo d'arco, LBT aspira ad arrivare a 2 minuti, con un 
guadagno di addirittura un ordine di grandezza, anche se a 
prezzo di una perdita di risoluzione di un fattore cinque. In 
questo modo, mentre in configurazione Ìnterferometrica VLT 
dovrà limitarsi a osservare i quasar e l'atmosfera delle stelle 
più vicine, oggetti indubbiamente interessanti, LBT potrà esse- 
re utilizzato in numerosi altri campi dell'astrofisica e della co- 
smologia moderna. 

Ma c'è di più. Gli interferometri a piccolo campo sono obbli- 
gati a utilizzare per la correzione adattativa lo stesso oggetto 
che stanno osservando, che deve quindi essere molto brillante. 
LBT, invece, nel suo campo di 2 minuti d'arco potrà tranquilla- 
mente ospitare una stella artificiale creata con un laser al sodio, 
un punto di riferimento molto più preciso. Proprio per questo i 
progettisti dello strumento hanno deciso di estendere la corre- 
zione adattativa. Per sfruttare ancora meglio questo grande 
campo corretto. LBT sarà l'unico strumento dotato di una cor- 
rezione ottica adattativa su tre livelli. Uno specchio adattativo 
singolo può compensare gli effetti della turbolenza di uno stra- 
to di aria posto immediatamente sopra al telescopio, ma non 
dell'intera atmosfera icrrcsirc. Ciascuno specchio primario di 
LBT sarà dotato di tre specchi adattativi, che correggeranno le 
deformazioni dell'immagine introdotte da altrettanti livelli del- 
l'atmosfera. Alla fine, il campo corretto sarà così ampio che al- 
l'inizio il telescopio non avrà neppure abbastanza sensori da 
coprirlo tutto. La speranza è infatti quella di installare più sen- 
sori in seguito, man mano che dovessero rendersi disponibili 
altri fondi, l'eterno problema della ricerca. 

Il sito 

Uno dei problemi che si devono affrontare quando si decide 
di costruire un telescopio di queste dimensioni è, banalmente, 
dove metterlo. Il sito infatti deve avere alcune caratteristiche ir- 
rinunciabili, come una bassa percentuale di notti nuvolose, una 
ventosità modesta, un'ottima tranquillità e trasparenza atmo- 
sferica e, inoltre, anche la lontananza da potenziali fonti di in- 
quinamento luminoso. Per il Large Binocular Telescope sono 



state prese in considerazione decine di sili, fra cui l'Osservatorio 
di Ma una Kea, sulle isole Hawaii, e il Kilt Peak, in Arizona, en- 
trambi già sede di osservatori. 

Alla fine, la scelta è toccata all'Osservatorio di Mount 
Graham, considerato uno dei migliori siti degli Stati Uniti con- 
tinentali. Nell'area dell'osservatorio è stata poi verificata la sta- 
bilità dell'immagine in diverse posizioni, e alla fine si è scelto di 
costruire il telescopio su Emerald Peak, a 3200 metri sul livello 
del mare. L'osservatorio esiste già dal 1993, quando furono in- 
stallali il telescopio da 1,8 metri dell'Osservatorio vaticano e 
uno strumento per l'astronomia millimetrica. 

Detto così, sembra facile; ma all'inizio gli interessi dell'astro- 
nomia si sono scontrati con diversi ostacoli, più o meno imprevi- 
sti, che dovrebbero essere stati aggirati. Per prima cosa, poiché 
l'osservatorio si trova all'imemo di un parco nazionale, dove vi- 
ve anche una specie animale in pericolo, il progetto ha trovato 
una forte opposizione da parte delle formazioni ambientaliste. 
Poi c'è stato un problema con 1 rappresentanti di una tribù di pel- 
lerossa, che rivendicava la sacralità del Mount Graham. Alla fine 
il Congresso degli Stati Uniti ha dato il via libera, purché la co- 
struzione avvenisse in modo da arrecare meno disturbo possibile 
al parco. Cosi si è ridotto al minimo il numero di mine utilizzate 
per scavare le fondamenta del telescopio. L'ultimo problema è 
stato invece il clima di Mount Graham, dove in invento la coltre 
di neve arriva fino a 5 metri... Per questa ragione, la costruzione 
della cupola è stata effettuata fra i mesi di aprile e novembre del 
2000. Adesso si tratta di portarci il telescopio. Poi, finalmente, 
LBT sarà pronto a mostrarsi come la più avanzata realtà tecnolo- 
gica dell'astronomia osservativa. 



BIBLIOGRAFIA 



PCWELL COREYS, Sp/ore l'universa in uno specchio, in «Le Scien- 
ze», 281, gennaio 1992, pp. 81-91. 

HARDY JOHN W., Off/co adottotivo, in «Le Scienze», 312, agosto 
1994, p. 46-53. 

ALLOIN DANIELLE, Adaptìve Optics far Astronomi], Kluwer, Dor- 
drecht, 1994. 

STiX GARY, Un nuovo occhio sul cosmo, in «Le Scienze», 3 PO, giu- 
gno 1999, pp. 50-5?. 



66 



LESCIENIE 393 /maggio 2001 



www.lescienze.it 



B? 



Le stranezze 
del cromosoma 



CROMOSDMAY 




I nostri cromosomi X e Y 
formano una strana coppia: 
il cromosoma X è abbastanza 
usuale, ma IT- quello che 
determina il sesso maschile - 
è veramente bizzarro. 
A che cosa si deve 
questa differenza? 



68 



di Karin Jegalian e Bruce T. Lahn 

I cromosomi umani che determinano il sesso - X e Y - 
sono davvero una strana coppia. Le altre 22 paia di 
cromosomi delle nostre cellule sono formate da due 
bastoncelli pressoché identici: un cromosoma di ogni 
coppia proviene dalla madre e l'altro dal padre, ma di 
solito entrambi hanno le stesse dimensioni e conten- 
gono gli stessi geni, (I geni sono i «modelli» da cui 
vengono sintetizzate le proteine, che svolgono la maggior 
parte delle funzioni dell'organismo.) In netto contrasto, il 
cromosoma Y è molto più piccolo dell'X: contiene solo alcu- 
ne decine di geni, in confronto ai 2000-3000 contenuti net 
cromosoma X, Un certo numero di geni dellY non possiede 
geni omologhi sull'X. Per di più, l'Y è strapieno dì «DNA 

LESCIENZE 393/maggio2001 



CROMOSOMA X ^ 



. I 






* 



i 



> 



> 







j i 



www.lescienze.it 



spazzatura»: sequenze di nucleotidi che non contengono alcuna 
istruzione per produrre molecole utili. 

Fino il l'empi aventi, i biotugi avevano difficoltà a spiegare in 
die modo il cromosoma Y si fosse ridotto in simili condizioni: 
avevano elaborato varie teorie, ma disponevano di pochi mezzi 
per con ferma ri e. La situazione si è ora modificala, principalmen- 
te grazie al Progetto Genoma umano e ai vari tentativi di deci- 
frare la sequenza completa dei nucleotidi contenuti nei cromo- 
somi umani: l'X, IT e i 22 autosomi (i cromosomi non coinvol- 
ti nella determinazione del sesso). Nello stesso modo in cui i 
paleontologi possono ricostruire l'evoluzione di una specie 
esaminando il sistema scheletrico di animali viventi e fossili, 
i biologi molecolari hanno imparato a seguire l'evoluzione 
dei cromosomi e dei geni analizzando le sequenze di DNA. 
Le nuove scoperte dimostrano che la storia dei cromo- 
somi sessuali è stata incredibilmente dinamica, caratteriz- 
zata da una serie di violente alterazioni de) cromosoma 
Y, seguite da cambiamenti compensatori nell'X. E questo 
gioco reciproco continua senza dubbio ancor oggi. 

Inoltre il cromosoma Y - a lungo considerato in grado 
di portare a termine a malapena il programma sessuale 
maschile - si sta rivelando molto più attivo di quanto i 
biologi sospettassero. Nel corso di circa 300 milioni di anni 
è riuscito a conservare un ceno numero di geni importanti per 
la sopravvivenza nei maschi e di acquisirne altri necessari alla 
fertilità. Nonostante venga regolarmente bistrattalo, il cromoso- 
ma maschile somigli;) un po' a Woody Alien: a dispetto della 
k sua modesta apparenza, esercita un potere inaspettato. 
^y La semplice curiosità ha guidato la maggior parte del- 

^ le ricerche sull'evoluzione dei cromosomi sessuali uma- 
ni. Tuttavia, il lavoro è stato ispirato anche da scopi 
eminentemente pratici, cioè dal desiderio di spiegare 
e curare l'infertilità maschile. Scoprire i geni dell'Y 
che iiii]tieii/iino l.i capacilà ripmduiliva potrebbe 
aiutare a mettere a punto terapie innovative per gli 
uomini che sono privi di quei geni o che ne possiedo- 
no versioni difettose (vi veda la finestra a pagina 73). 
Prima del XX secolo, i biologi ritenevano che fosse 
l'ambiente a determinare il sesso nell'uomo e negli altri 
mammiferi, proprio come accade nei rettili attuali. Nel ca- 
so di questi uh imi, la temperatura a cui viene incubalo 
l'embrione in uno stadio precoce dello sviluppo innesca al- 
cuni meccanismi ancora poco chiari che determinano la na- 
scila di un individuo di sesso maschile o femminile. All'inizio 
del Novecento, però, i ricercatori sì resero conto che in alcune 
specie animali suini i cromosomi a stabilire quale sarà il sesso. 
Circa 20 anni più tardi, si dimostrò che i mammiferi sono fra 
.quegli animali che utilizzano i cromosomi - speci fica mente l'X 
e l'Y - per determinare il sesso durante lo sviluppo embrionale. 

Indizi che si assommano 

Nei decenni successivi, si identificò nel cromosoma Y il re- 
sponsabile del sesso maschile e si dedusse che i due cromosomi 
sessuali (X e Y) si fossero evoluti a partire da autosomi simili di 
un antenato primordiale. Per puro caso, in un'epoca vicina all'o- 
rigine dei mammiferi, una mutazione verificatasi in una piccola 
regione dell'autosoma che sarebbe diventato l'Y fece sì che gli 

I CROMOSOMI X E Y ebbero orìgine centinaia di milioni di anni fa come una 
coppia di cromosomi omologhi. Cof tempo, però, il cromosoma Y sì è 
ridotto a un frammento dell'originale, mentre l'X ha mantenuto la sua 
dimensione iniziale. Oggi si sta incominciando a capire in che modo 
questi cromosomi abbiano potuto differenziarsi in maniera così radicale. 
La mìcrofot agrafìa mostra i due cromosomi come appaiano durante la 
metafase della divistone cellulare. 



63 



ì 



• 1 

1 

7 

• « 

13 


2 

a 
ti 

14 


J! Il 

3 4 

SS IS 

g io 

il 31 

15 16 


S 

SI 

n 

il 

i? 


1! 

6 

:. 

12 

0» 

18 


; ■ 


• • 


• « 


1 


1 - 

Y 


19 


20 


21 22 


X 



UNA CELLULA MASCHILE 
NORMALE è dotata di un 
corredo cromosomico 
[nella foto] formato da 
22 coppie di autosomi 
[non coinvolti nella 
determinazione de! 
sesso J , un X e un Y; in 
ciascuna coppia un 
membro x proviene dalla 
madre, mentre l'altro 
viene ereditato dal padre 
I geni della regione che 
non si ricombina de! 
cromosoma Y [in blu nel 
disegno) hanno 
contribuito a svelare la 
storta evolutiva dei 
cromosomi X e Y, Questa 
regione è chiamata NRY 
perché non subisce 
il processo di 
ri combinazione, cioè 
scambio di DNA, con 
il cromosoma X. Nel 
disegno sono indicati 
solo i geni che oggi 
risultano attivi: ali 'incirca 
la metà di essi possiede 
un omologo sul 
cromosoma X [in rosso). 
Alcuni di questi sono i 
geni «housekeeping», 
indispensabili perla 
sopravvive ma della 
maggior parte delle 
cellule. Alcuni geni della 
regione che non si 
ricombina sono espressi 
solo nel testicolo [in 
vìo/erto), dove 
verosimilmente 
contribuiscono a 
determinare la fertilità 
maschile. 



Gem [o rami gli e dt goni] 

del cromosoma Y assenti 

sullTCeetttvI 

sola nel testicoli 



1 Éàl 



Geni dal 

cromosòma 1 
che hanno 
omologhi suo 



., SRT I ■ fifW 

[determina I ■»y 

i! sesso maschile) ' 

\PC0HY 



Conseguenze 

della delezione 

di segmenti 

detIT 



rspr 



PRY\ 

rm 

TJYB\ 

rspr 



UNCU 



Centromero 



Ridotta 

Bassa j spennato* 

statura \ genesi 



COY\ 
XKRY\ 



Ridotta 
s perni Biogenesi ] pfff I 
7TY2 

anzi 

Bidona J bpy2 I 
sperm Biogenesi ] PRY\ 

cby\ 



Regione priva 
di geni funzionali 



\USP9Y* 
ID8YT 

lorrt 

TB4r* 



\vcr* 



SMcrt 

RrJMT* 



\rbmy'- 




CROMOSOMA Y 



Regioni «pseudoautosomiche», capaci di scambiare (ricorri binare) 

frammenti di DNA con it cromosoma X 
* Il gene SRY è responsabile della formazione dei testicoli. Si è 

originato a partire da SQX3 e assomiglia a quello 

presente sul cromosoma X, ma i due geni svolgono funzioni diverse 
T Geni housekeeping 
i Geni che hanno una controparte sul cromosoma X, 

ma sono attivi solo nel testicolo 



350 milioni 
di anni fa? 



ANTENATI DEI MAMMIFERI SIMILI A RETTILI 



Da 320 a £40 milioni 
di anni fa 



Da 170 a 130 milioni 
di anni fa 



Da 130 a 80 milioni 
di anni fa 



Da 50 a 30 milioni 
di anni fa 



CENTROMERO 



CROMOSOMI 
IDENTICI 
CAPACI DI 
SCOMBINARSI 





Presente 



Nasce il gene SRY 



SRY, 



PRIMO 

evento 
di mancata 

ficom bi- 
nazione; 
la regione 
Interessata 
delHf 
degenera 



COPPIA DI AUTOSOMI IN UN ANTENATO CROMOSOMA Y CROM0S0MAX 



SIMILE ADN RETTILE 



IN FORMAZIONE IN FORMAZIONE 



embrioni che ereditavano quel cromosoma mutato (assieme al 
suo partner, il futuro X) diventassero indivìdui dì sesso maschi- 
le. Gli embrioni che invece ereditavano due copie dell'X diven- 
tavano femmine. 

Nel 1990 i genetisti individuarono la regione del cromosoma 
Y che è responsabile dei tratti maschili. Si tratta di un singolo 
gene chiamato SRY. cioè «regione dell'Y che determina il sesso». 
La proteìna codificata da SRY determina la Formazione dei testi- 
coli, a quanto sembra attivando altri geni su diversi cromosomi. 
In seguito, il testosterone e altre sostanze prodotte nei testicoli 
hanno il compilo di modellare i caratteri maschili. 

Gli scienziati sono giunti alla conclusione che i cromosomi 
sessuali umani in origine formassero una coppia di omologhi in 
parte perché le estremità dell'X e dell'Y sono tuttora molto simi- 
li e possono dar luogo a un processo chiamato ricombinazìone. 
Durante la meiosi (la divisione cellulare che porta alla produzio- 
ne di uova e spermatozoi) i cromosomi omologhi si appaiano 
con precisione e sì scambiano alcuni (rammenti; dopodiché una 
copia di ogni autosoma, assieme a un cromosoma sessuale, vie- 
ne distribuita uniformemente in ogni cellula germinale. Sebbene 
oggi la maggior parte dell'Y mostri ben poca somiglianza con il 
cromosoma X, nei maschi le estremità di questi due cromosomi 
si allineano durante la meiosi e si scambiano reciprocamente 
frammenti, come se l'X e IT fossero ancora una coppia di omo- 
loghi. (Questo allineamento è cruciale per la corretta distribuzio- 
ne dei cromosomi negli spermatozoi.) 

Un'altra prova del fatto che l'X e l'Y fossero un tempo molto 
simili è stata ricavata dalla regione del cromosoma Y che non si 
rìcombina con l'X. Molti dei geni distribuiti lungo questa regio- 
ne possiedono ancora oggi una contropane sul cromosoma X. 

L'esistenza delta regione non soggetta a ricombinazione, che 
rappresenta il 95 per cento di tutto il cromosoma Y, ha offerto 
un'indicazione su come questo cromosoma sìa divenuto l'ombra 
di ciò che era in origine. Sia in natura sia in laboratorio, la ri- 
combinazione aiuta a mantenere l'integrità dei cromosomi. Vi- 
ceversa, la sua assenza provoca l'accumulo di mutazioni delete- 
rie nei geni situati nella regione che non si ricombina, fino a che 
essi si deteriorano e scompaiono. Pertanto sembrava ragionevo- 
le ritenere che un qualche evento abbia fatto cessare i processi di 
ricombinazione di DNA fra ampie zone dell'X e dell'Y, in seguì- 



ì 

I 




REGIONI OMOLOGHE 
ANCORA IN GRADO 
□ I RIC0MBINARSI 



MAMMIFERI 



SECONDO 

evento di mancata 
ri combinai Ione. 
ulteriore 
degenerazione 
del IT 



REGIONI NON PIÙ 
IN GRADO 

DI RICOMBINARSl 




TERZO 

sventa di mancata 

ri corriti battone; 
ultfriorv 

ace ordimento 



COME NEI MONOTREMI 



COME NEI MARSUPIALI 



BMRannwBimB 



LA DEGENERAZIONE DEL CROMOSOMA Y si è verificata in quattro tappe 
distinte, a partire da circa 300 milioni dì anni fa, dopo che un antenata 
rettiliano dei mammiferi aveva acquisito un nuovo gene {SRY\ su uno dei 
suoi autosomi. Ogni tappa ha comportato una mancata ricombinazione 
(scambio di DNA) fra il cromosoma X e l'Y durante la meiosi (la divisione 
cellulare che produce spermatozoi e ovociti). Se la ricombinazìone non 
avviene, i geni delle regioni coinvolte cessano di funzionare e si 
degradano. La successione di eventi mostrata è molto semplificata. Per 
esempio, il cromosoma Y in certi periodi è andato incontro a un 
incremento di dimensioni (inserendo DNA autosomico nelle zone ancora 
in grado di ricombinarsi), prima che la mancata ricombinazione 
producesse come effetto finale un netto accorciamento. 



IN PILLOLE 



■ A differenza degli altri cromosomi, che sono pressoché 
identici (omologhi), i cromosomi sessuali X e Y sono molto 
differenti: il cromosoma Y è molto più pìccolo dell'X. Il 
cromosoma Y umano contiene poche decine di geni, contro i 
2000-3000 dell'X. Solo le loro estremità sono simili e possono 
subire la ricombinazìone, un processo dì scambio di geni fra i 
cromosomi, utile a mantenerne l'integrità a fronte degli errori di 
trascrizione che si possono verificare nella divisione cellulare. 

■ Un tempo anche i cromosomi X e Y erano omologhi, ma a 
partire da alcune' centinaia di milioni di anni fa, una serie di 
mutazioni in qualche antenato dei mammiferi ha impedito la 
ricombinazione di una parte del cromosoma Y, che è 
degenerato e ha perso numerosi geni, ma non quelli necessari 
a funzioni vitali di tutte le cellule. Sulla parte non ricombinante 
dell'Y vi sono anche geni che regolano la fertilità maschile. 

■ Con la progressiva scomparsa di geni sulf'Y, la produzione 
delle proteine loro associate si sarebbe ridotta gravemente nel 
sesso maschile, se per compensare questa carenza non fosse 
aumentata l'attività dei geni suli'X. A questo punto, per evitare 
un eccesso di produzione nelle femmine, si sono evoluti 
ulteriori meccanismi di inattivazione dei geni. 




In un momento 

ignoto, 

Sff r si sposta 

sul braccio corto 

del cromosoma Y 



QUARTO 

evento di mancata 

ricombinazìone 
che parta 
Il cromosoma Y 
nel suo stato 

attuale 




COME NELLE SCIMMIE 



NELLA SPECIE UMANA 



to al quaJe i geni della regione che non si ricombinava del cro- 
mosoma Y sono andati perduti. Ma quando e in che maniera il 
processo di ricombinazione si sia interrotto dopo la formazione 
del cromosoma Y è un punto che per decenni è rimasto oscuro. 

Costruito a tappe 

Le ricerche compiute negli ultimi cinque anni hanno colma- 
to molte lacune. Per esempio, nel !999 uno di noi (Lahn), assie- 
me a David C. Page del Whitehead Institute for Biomedicai Re- 
search di Cambridge, nel Massachusetts, ha dimostrato che il 
cromosoma Y ha perduto la sua capacità di scambiare fram- 
menti dì DNA con l'X in modo sorprendente, per tappe successi- 
ve: coinvolgendo dapprima una zona di DNA che circondava il 
gene SRY, ed estendendosi quindi, a bioechi hen distinti, per 
tutta la lunghezza del cromosoma. Tuttavia, solo il cromosoma 
Y si è deteriorato in seguilo alla perdita del meccanismo di ri- 
combì nazione con IX II cromosoma X ha continuato ad anda- 
re incontro a ricombinazìone ogni volta che due sue copie si in- 
contravano nella donna al momento della meiosi. 

Che cosa può spiegare il venir meno della ricombinazione fra 
i cromosomi X e Y? Mentre i cromosomi X e Y primitivi cerca- 
vano di scambiarsi segmenti nella meiosi, in un lontano antena- 
to degli attuali mammiferi, probabilmente parte del DNA del 
cromosoma Y inverti il proprio orientamento, finendo per capo- 
volgersi rispetto alla regione omologa su! cromosoma X. Poiché 
la ricombinazione richiede che due sequenze simili di DNA si 
appaino luna con l'altra, un'inversione avrebbe impedito le inte- 
razioni future tra regioni prima omologhe sui due cromosomi. 

Abbiamo scoperto che il processo di ricombinazione cessò in 
episodi distinti esaminando la sequenza nucleotidica di 19 geni 
dislocati nella regione che non si ricomhina di entrambi i cro- 
mosomi X ed Y. (Alcune delle copie dell'Y non sono più funzio- 
nanti.) In generale, se coppie appaiate di un gene hanno smesso 
di ricombinarsi, la loro sequenza è destinata a divergere sempre 
più nel tempo. Un numero relativamente piccolo di differenze 
significa che la ricombinazione ha smesso di verificarsi in tempi 
abbastanza recenti; un numero elevato di differenze implica che 
il processo si è interrotto mollo tempo fa. 

La maggior parte delle coppie X-Y apparteneva a uno di 



7*0 



LE SCIENZE 393 / maggio 2001 



www.lescienze.it 



Pi 




PROTEINE 
CODIFICATE 
DAI GENI 



GENE 
PERDUTI 



EVENTOl 
La copte det gene 

sul cromosoma y 

viene petduta 

per la mancala 

ricom&inaiione 

fraXeY 







EFFETTO: 

Il maschio 

produce una quantità 

diproteinaparia 

metà della Femmina 



EVEHTG2 

La copia del gene 

sull'X raddoppia 

la sua attività, 

per compensa te la 

perdita di proteina 

nei maschio 




EFFETTO: 

Il livello proteico 

complessivo 
nel maschio 

ritorna normale 



I 



EFFETTO: 

Nessun 
''cambiamento 
nella femmina 





quattro gruppi, in ciascuno di essi, le copie X e Y differivano al- 
l'incirca nella stessa misura, e ciò indicava che la rico ni bina zi o- 
ne si era interrotta più n meno nello stesso momento. Ma i quat- 
tro gruppi erano chiaramente diversi fra loro. Le copie di Y che 
avevano incominciato a divergere dalle loro controparti sull'X 
all'inarca quando si era sviluppato il gene SRY erano quelle che 
mostravano la maggiore differenza dai loro partner, mentre gli 
altri gruppi presentavano progressivamente meno differenze fra 
le copie di X e di Y. 

Confrontando sequenze di DNA di specie diverse, si può cal- 
colare approssimativamente l'epoca in cui geni un tempo omo- 
loghi (e le regioni in cui essi erano situati) hanno iniziato a pren- 
dere strade diverse. 1 confronti hanno rivelato che i precursori 
autosomid dì X e Y erano ancora simili fra loro e intatti nei ret- 
tili che esistevano prima che la linea evolutiva dei mammiferi 
incominciasse a svilupparsi pienamente. Tuttavia i monotremi 
(come l'ornitorinco e l'echidna), che furono fra i primi a staccar- 
si dagli altri mammiferi, possiedono sia il gene SJ?Y sia una re- 
gione adiacente che non si ricombina. Queste differenze implica- 
no che il gene SRY sia comparso, e che la ricombinazione nei 
suoi pressi si sia interrotta, in un'epoca vicina all'emergere della 
linea evolutiva dei mammiferi, circa 300 milioni di anni fa. 

Per ottenere maggiori informazioni abbiamo svolto un'analisi 
basandoci sull'orologio molecolare». È possibile stimare a poste- 
riori la velocità di mutazione delle sequenze di DNA quando non 
vi siano particolari pressioni selettive che le mantengano inva- 
riate. Moltiplicando l'entità della differenza nelle sequenze delle 
coppie X-Y per la velocità stimata, abbiamo dedotto che il primo 
evento di inversione cromosomica che ha bloccato il processo di 
ricombinazione si verificò fra 240 e 320 milioni di anni Fa. 




EVENT03 

La femmina 

inattiva 

a caso una copia 

del gene 

in ciascuna 

cellula 




EFFETTO: 
Nessun 
cambiamento 
net maschio 



JC ** W 

■ 



RISULTATO FINALE 
I livelli proteici 

nei maschi 
e nei (e femmine 
si equivalgono 



troppa protema 



EFFETTO: 
Il livello proteico 
•ne! la femmina 
ritoma alla normalità 



IL SILENZIAMENTO DI PARTE DI UN CROMOSOMA X nelle cellule femminili 
ha coinvolto solo un gene o alcuni geni alla volta. Il risultato di una 
evoluzione cosi graduale dell'inattivazione ha permesso dì compensare 
la perdita di geni sul cromosoma Y (ne/ diagramma). Nei gatti squama 
di tartaruga (ne//a/oto) è possibile osservare un effetto 
dell'inattivazione del cromosoma X : proprio su di esso si trova infatti il 
gene che determina il colore rosso o nero del pelo. Gli esemplari 
femmina che partano la versione rossa su un cromosoma X e la 
versione nera sull'altro X finiranno con l'avere parte del pelo rossa e 
parte nera, a seconda di quale cromosoma X è stato disattivato in 
ciascuna cellula. Un gene diverso è invece responsabile della 
colorazione delle aree bianche. 

Analisi simili rivelano che l'inversione successiva si verificò 
fra 130 e 170 milioni di anni fa, poco prima che i marsupiali si 
staccassero dalla linea evolutiva che avrebbe dato origine a tut- 
Li ì mammiferi placentati. La terza inversione avvenne fra 80 e 
130 milioni di anni Ta, prima della diversificazione dei mammi- 
feri placentati. E l'ultima inversione ha sconvolto il cromosoma 
Y fra 30 e 50 milioni dì anni fa; ossia dopo che le scimmie si 
erano avviate lungo il loro proprio cammino evolutivo, ma pri- 
ma che scimmie antropomorfe e ominidi si separassero. 

Opponendosi alla tendenza generale valida per la coppia X-Y, 
alcuni geni nella regione che non si ricombina dell'Y codificano 
per proteine che differiscono davvero poco rispetto a quelle co- 
dificate dalla loro controparte sull'X, persino nelle regioni che 
hanno subito precocemente l'inversione. Una simile conserva- 
zione può forse essere spiegata da una semplice regola evolutiva: 
se un gene è cruciale per la sopravvivenza di un organismo, ten- 
derà a mantenersi. In effetti, i geni di Y che sono cambiati di me- 
no sono principalmente quelli «housekeepingn, la cui presenza è 
necessaria per l'integrità di quasi tutte le cellule dell'organismo. 

Compensare le perdite 

Non solo la logica, ma anche una gran mole di dati sperimen- 
tali indicano che la mancata ricombinazionc tra i cromosomi X 
e Y, e il conscguente deterioramento di molti geni di Y devono 
essere stati seguiti da un terzo processo che ha compensato l'e- 
vento degenerativo. Il ragionamento è il seguente: non tutti i 
geni sono attivi in tutte !e cellule. Ma quando una celluJa ha bi- 
sogno di particolari proteine, in genere attiva entrambe le copie, 
patema e materna, dei geni corrispondenti. La quantità di prò- 



Perché sono sterile? 

Oltre a rivelare la storia dei cromosomi sessuali, gli studi di 
genetica sul cromosoma Y stanno aiutando a chiarire 
alcuni casi di infertilità. AH'incìrca nel 50 per cento delle coppie 
sterili, il problema ricade completamente o parzialmente 
sull'uomo, che può produrre un numero insufficiente di 
spermatozoi, o addirittura non ne produce affatto. Spesso le 
ragioni di questa anomalia non sono chiare. Nuove scoperte, 
però, indicano che il cromosoma Y contenga un certo numero 
di geni coinvolti nella fertilità e che l'alterazione di uno o più di 
questi geni giustifichi circa il 10 percento dei casi di scarsa o 
assente produzione di sperma. 

Si attribuì per la prima volta al cromosoma Y un ruolo 
nell'infertilità negli anni settanta, quando si potè constatare al 
microscopio che molti uomini sterili sono privi di piccali 
frammenti del cromosoma Y normalmente presenti negli 
individui fertili. Oggi gli scienziati sanno che le delezioni che si 
verificano in una di tre regioni specifiche dell'Y possono 
causare infertilità e che ciascuna di queste tre regioni - 
chiamate AZF (cioè fattore di azoospermia) a.bec- contiene 
diversi geni. 

La maggior parte di questi geni ha una elevata attività nei 
testicoli, dove sono prodotti gli spermatozoi. Questo 
comportamento indica chiaramente che i geni delle regioni AIF 
sono importanti per la produzione degli spermatozoi, anche se 
il loro esatto contributo e le loro interazioni con i geni 
responsabili della fertilità presenti su altri cromosomi devono 
essere ancora determinati. 




TRASFERIRE 
GLI SPERMATOZOI 
[visibìli nel microago] 
direttamente in un 
ovocita potrebbe 
risolvere la sterilità in 
molti uomini colpiti da 
alterazioni del 
cromosoma Y. 



Alcuni specialisti dell'infertilità stanno ora analizzando le 
delezioni dell'Y nell'ambito della diagnosi. Se gli uomini in cui 
vengono riscontrate queste alterazioni producono almeno una 
minima quantità di spermatozoi, si può proporre loro una 
terapia chiamata iniezione intracitoplasmica dì spermatozoi 
[ICSlJ, in cui gli spermatozoi vengono recuperati direttamente 
dal testicolo e inseriti negli ovociti in laboratorio. 
Malauguratamente, i figli concepiti in questa maniera 
erediteranno dal padre i cromosomi Y difettosi e quindi 
avranno probabilmente le stesse difficoltà nel procreare. 

Quando si saranno decifrate le esatte funzioni delle proteine 
codificate dai geni situati nell'area AZF, sarà forse possibile far 
regredire l'infertilità in quegli uomini che recano delezioni 
nell'Y, rimpiazzando le proteine mancanti o ricostruendo gli 
stessi geni perduti. D'altro canto, queste informazioni 
dovrebbero consentire di mettere a punto farmaci che 
inibiscano il sistema di produzione degli spermatozoi, offrendo 
quindi nuovi tipi di contraccettivi maschili. 



GLI AUTORI 



KARIN JEGALiAN e BRUTE T. LAHN hanno compiuto gli studi di 
specializzazione nel laboratorio del genetista David C. Page, 
presso il Whitehead Institute for Biomedicai Research di Cam- 
bridge, nel Massachusetts, e il Massachusetts Institute of 
Technology. Jegalian si occupa attualmente di divulgazione 
scientifica presso i National Institutesof Health. Lahn è ricer- 
catore presso lo Howard Hughes Medicai Institute e professore 
al Dipartimento di genetica umana dell'Università di Chicago. 



teina prodotta da ciascuna copta è regolata per garantire lo svi- 
luppo e il funzionamento ottimale di un organismo, giorno do- 
po giorno. Perciò, via via che i geni sull'Y incominciarono a 
scomparire, la produzione delle proteìne loro associate si sareb- 
be ridotta disastrosamente nel sesso maschile se le specie colpite 
dall'evento non avessero sfruttato strategie compensative. 

Molti animali, come il moscerino della frutta, rimediano a 
questa disparità raddoppiando sul cromosoma X l'attività dei 
geni corrispondenti a quelli perduti nel cromosoma Y del ma- 
schio. Altri impiegano una strategia più complessa: in primo 
luogo aumentano l'attività dei geni suli'X sia nel maschio sia 
nella femmina, una manovra che ripristina il livello proteico net 
maschi, ma crea un eccesso nelle femmine. In alcuni animali, 
come nei vermi nematodi, l'attività dei geni dell'X nelle femmi- 
ne viene poi dimezzata, mentre altri ancora, fra cui ì mammife- 
ri, ricorrono a un processo chiamato inattivazione dell'X, in cui 
le cellule degli embrioni femminili a uno stadio precoce disatti- 
vano a caso la maggior parte dei geni in uno dei loro due cro- 



mosomi X. Cellule vicine possono «mettere a tacere» copie di- 
verse del cromosoma X, ma tutti i discendenti di una data cellu- 
la mostreranno lo stesso schema di inattivazione. 

Sebbene l'inattivazione dell'X sia stala a lungo ritenuta una 
risposta al decadimento dei geni dell'Y, la prova mancava. Se la 
degenerazione dei geni del cromosoma Y determinava l'inattiva- 
zione dell'X, allora i geni dell'X che possedevano controparti 
funzionali nella regione che non si ricombina dell'Y avrebbero 
dovuto continuare a funzionare nelle femmine (cioè, sfuggire al- 
l'inattivazione), in modo da mantenere i livelli proteici nelle 
femmine equivalenti a quelli dei maschi. Analizzando i livelli di 
attività delie coppie X-Y superstiti in una ventina di specie di 
mammiferi, uno di noi (Jegalian) e Page scoprirono alcuni anni 
fa che le copie dei geni attivi sull'Y situate sul cromosoma X 
sfuggivano all'inattivazione. Queste analisi hanno anche rivela- 
to che tale processo di inattivazione non si è evoluto in un solo 
stadio; piuttosto, ha avuto origine quasi in sordina, frammento 
dopo frammento o, forse, gene dopo gene all'interno di un fram- 
mento; comunque non simultaneamente su rutto il cromosoma. 

Temi che si rivelano 

Stranamente, la regione che non si ricombina dell'Y possiede 
non solo un certo numero di geni indispensabili rispecchiati sul- 
l'X, ma anche una decina di geni che favoriscono la fertilità ma- 
schile. Questi ultimi codificano per proteine che sono sintetizza- 
te solo nei testicoli, presumibilmente per contribuire alla produ- 
zione dello sperma. Sembra che alcuni di essi siano giunti sull'Y 
da altri cromosomi. Altri si trovano apparentemente sullT fin 
dall'inizio, ma in origine avevano funzione diversa: le nuove 



72 



.E SCIENZE 393 T- i3 ggio2QQl 



www.lescienze.it 



?3 



LE SCTENZF 



^SCILATIHC 

nimiiw 



PYO 

COSMOLOGIA 

-■ : ' : .'■:*■*:- 

Il- frutto della tecnologia nata ' 

d'ai la- convergenza di ^udio, 

'.— videa e informatica.che -, ■ 

permette una enorme capienza 

di dati e una straordinaria 

quantità di immagini e audio. 



rOSW \ \h 




?osrvttD 



MARTE 



taiittu; 



ILSOLE 



DAL BIG BANG 



3 DVD con straordinarie 

immagini dallo spazio e 

spettacolari ricostruzioni 

in computer grafica per 

conoscere e comprendere 

i misteri e l'origine 

del Sistema Solare 

L.55.00D l'uno 



Si possono acquistare utilizzando 

le cedole contenute nelle nostre 

pubblicazioni, contattando il nostro 

ufficio vendite (tei 02.29001753. 

fax 02.65529081 o coliegandosi 

al nostro sito Internet: 

http://www.lescienze.it/ 



funzioni sono state acquisite col tempo. 
La degenerazione, quindi, è solo uno dei 
temi salienti nell'evoluzione del cromoso- 
ma Y; un secondo, poco considerato fino 
a qualche anno fa, è l'acquisizione dei ge- 
ni che regolano la fertilità. 

I teorici dissentono su quali forze ab- 
biano trasformato il cromosoma Y in una 
calamita per geni di questo tipo. Una spe- 
cie nel suo complesso può trarre beneficio 
dal fatto di relegare nei maschi geni che 
potrebbero danneggiare le femmine, o 
non portar loro alcun vantaggio. È anche 
possibile che il fatto di trovarsi sul cromo- 
soma Y protegga i geni maschili della Fer- 
tilità, assicurandone la trasmissione da 
maschio a maschio senza dover passare in 
individui di sesso femminile (che potreb- 
bero eliminarli senza subire danni diretti). 

Un altro mistero è come i geni della 
fertilità possano prosperare in assenza dì 
ricombinazione, in condizioni che hanno 
danneggiato irreparabilmente gran parte 
degli altri geni. Di fatto, quasi ogni gene 
per la fertilità presente sul cromosoma Y 
esiste in più copie: questa amplificazione 
potrebbe limitare gli effetti di mutazioni 
distruttive, che di solito colpiscono una 
copia per volta. Anche se alcune copie ac- 
cumulano mutazioni e diventano inattive, 
le rimanenti conservano la capacità ripro- 
duttiva dell'indivìduo e fungono da stam- 
po per la loro stessa moldplicazione. 

L'evoluzione dei cromosomi sessuali è 
stata studiata soprattutto nell'essere uma- 
no. Tuttavia, insieme con i confronti fra 
specie, queste ricerche hanno messo in lu- 
ce princìpi generali, che agiscono persino 
in animali che hanno sviluppato cromo- 
somi sessuali in maniera indipendente dai 
mammiferi. Alcuni di questi animali, co- 
me gli uccelli e le farfalle, usano il sistema 
W-Z di determinazione del sesso. Quando 
il fatto di ereditare una copia singola di 
uno specifico cromosoma porta alla for- 
mazione di un individuo di sesso maschi- 
le, quel cromosoma è chiamato Y e il suo 
partner X. Quando il fatto dì ereditare una 
copia di un cromosoma porta alla forma- 
zione di una femmina, quel cromosoma è 
detto W, e la sua controparte Z 

Un principio importante è che i cromo- 
somi sessuali derivano dagli autosomi. 



BIBLIOGRAFIA 



Tuttavia, l 'autosoma coinvolto può varia- 
re. I cromosomi W e Z degli uccelli, per 
esempio, si sono evoluti a partire da auto- 
somi differenti rispetto a quelli che hanno 
dato origine a X e Y dei mammiferi. E i 
cromosomi X e Y del moscerino della 
frutta derivano da autosomi diversi da 
quelli dei mammiferi. 

Nella maggior parte delle specie a ri- 
produzione sessuata, quando i cromosomi 
del sesso sì sono formati, diventano sem- 
pre più dissimili via via che sì susseguono 
uno o più cicli composti da tre fasi succes- 
sive: la soppressione della ricombinazio- 
ne, la degenerazione delle regioni che non 
si ricombinano dei cromosomi che specifi- 
cano il sesso (Y o Wl e, infine, la compen- 
sazione da parte dell'altro cromosoma. Al 
contempo, il cromosoma specifico del ses- 
so in molte circostanze è divenuto impor- 
tante per la fertilità, com'è accaduto per 
IT negli esseri umani e negli insetti. 

E ragionevole domandarsi che cos'ab- 
bia in serbo il futuro perla nostra specie. 
Il ciclo potrebbe forse continuare fino a 
eliminare tutti gli eventi di ricombinazio- 
ne fra l'X e IT e a distruggere addirittura 
il cromosoma Y, forse fra migliaia o mi- 
lioni di anni? Le recenti scoperte indicano 
che nei maschi esista un meccanismo di 
protezione dei geni dell'Y che sono critici 
per la sopravvivenza e la fertilità del sesso 
maschile. Nondimeno, la rovina totale 
dell'Y rimane una possibilità teorica. 

La ricerca genetica viene spesso effet- 
tuata con un occhio rivolto alla compren- 
sione e alla cura dette malattie. Alcune 
indagini sul cromosoma Y hanno avuto 
inizio proprio con un simile obiettivo in 
mente: capire lo sviluppo maschile e cor- 
reggere la sterilità. Ma molti studi non 
erano cosi concentrati sulla terapia. Via 
via che, grazie alle ricerche sistematiche 
di sequenziamento, si identificava un nu- 
mero sempre maggiore di geni sui cromo- 
somi X e Y, gli scienziati più interessati ai 
problemi evolutivi non hanno potuto fare 
a meno di chiedersi se questi geni avesse- 
ro qualcosa da rivelare riguardo al passa- 
to remoto degli stranamente male assorti- 
ti cromosomi X e Y. Come si è visto, que- 
sti geni hanno davvero una storia interes- 
sante da raccontare. 



LAHN8RUCET.e PAGE DAVID C, Functianal Coherence oj the Human Y Chromosome, in 

«Science», 278, pp. 675-680, 24 ottobre 199?. 

JEGALIAN KARIN e PAGE DAVID C., A Proposed Patti oy Whfch Genes Common to Mamma- 

HanXand Y Chromosomes Evolve to Secarne X Inaatvated, in «Nature», 394, pp. 776- 

780, 20 agosto 1998. 

LAHN BRUCE T. e PAGE DAVID C, Four Evolutionary Strato on the Human XChromosome, 

in «Science», 286, pp. 9B4-967, 29 ottobre 1999. 

LAHN 8RUCE T., PEARS0N NATHANIEL M. e JEGALIAN KARIN, The Human Y Cnromosome, in 

Evolutìon's Light, in «Nature Reviews Genetìcs» (in stampa). 



?4 



LE SCIENZE 393 /maggio 2001 









y o u 
m e a n 



Quando Internet diventa intelligente: 

agenti software e rappresentazioni condivise 
per un'automazione dei servizi in rete... e a casa vostra 



o stereo suonava We Can Work ft Out dei Beatles, quando squillò il telefono. 
Non appena Pete rispose, il telefono abbassò il volume della musica, in- 
viando un messaggio al dispositivo di controllo. Era Lucy, la sorella, in li- 
nea dallo studio del medico: «La mamma ha bisogno di vedere uno spe- 
cialista e di una serie di sedute di fisioterapia. Sto per ordinare al mio agen- 
te di fissare un appuntamento». In ufficio, Lucy istruì il suo agen- 
te Web semantico con il browser portatile. L'agente recuperò in 
tempo reale, dall'agente del medico, le informazioni sul trattamento, controllò l'e- 
lenco dei fisioterapisti e cercò quelli convenzionati con l'assicurazione della 
mamma, a meno di 30 chilometri di distanza da casa sua e con un giudìzio di ec- 
cellente o molto buono nei servizi offerti. Lagente iniziò poi a cercare di far coin- 
cidere gli orari degli appuntamenti (forniti attraverso il sito Web di ciascuno stu- 
dio) e le fìtte agende di Pete e Lucy. In pochi minuti l'agente trovò una soluzione, 
ma a Pete non piacque: l'ospedale universitario era dall'altra parte della città ri- 
spetto alla casa della mamma, ed egli avrebbe dovuto tornare indietro proprio al- 
l'ora di punta. Istruì allora il suo agente in modo che ripetesse la ricerca, ma con 
indicazioni più precise in fatto di luoghi e di orari, Lagente di Lucy lo assistette 
nell'operazione, fornendogli le password di accesso ai siti visitati. 




di 



TIM BERNERS-LEE, 

JAMES HENDLER 

e ORA LASSILA 



Illustrazioni 

di MIGUEL SALMERON 



www.lescienze.it 



77 



L'agente presentò un nuovo piano, un fisioterapista molto più 
vicino e un orario più comodo: ma c'erano due note di avverti- 
mento. Prima di tutto. Pete avrebbe dovuto spostare un paio dei 
suoi appuntamenti. Controllò di che cosa si trattava: nessun 
problema. L'altro punto era che l'agenzia assicurativa non com- 
prendeva questo Centro nell'elenco dei fisioterapisti: «Il tipo di 
servizio e le convenzioni assicurative sono stati verificati in al- 
tro modo (dettagli?)». Lucy diede il suo assenso più o meno nel- 
lo stesso momento in cui Pete borbottava «Risparmiami i detta- 
gli», e l'appuntamento fu fissato. 

Esprìmere il significato 

Pete e Lucy possono usare i loro agenti per svolgere tutti que- 
sti compiti non grazie al World Wide Web che conosciamo, ma 
a un Web semantico che ne sarà l'evoluzione futura. II Web sta 
rivoluzionando le comunicazioni e il commercio, ma la maggior 
parte del suo contenuto è progettata per essere letta da esseri 
umani, e non per essere manipolato da programmi. I computer 
possono scorrere le pagine Web alla ricerca di schemi (qui c'è un 
titolo, qui un link, qui un'immagine! ma non hanno un sistema 
adeguato per trattare la semantica (questa è la homepage del 
Centro fisioterapico Hartmann e Strauss, questo link porta al 
curriculum vitae del dottor Hartmann, quel programma vi mo- 
stra l'elenco degli orari disponibili per gli appuntamenti). 

Il Web semantico darà struttura al contenuto significativo 
della pagine Web, creando un ambiente dove gli agenti softwa- 
re possano svolgere velocemente compiti complessi per i loro 
utenti. Uno di questi agenti che arrivi alla pagina Web del Cen- 
tro fisioterapico non saprà solo che quella pagina contiene paro- 
le chiave come «trattamento, medicina, fisico, terapia», ma an- 
che che il dottor Hartmann effettua visite il lunedi, mercoledì e 
venerdì, e che il programma per gli appuntamenti accetta le da- 
te nel formato gg/mm/aaaa e presenta un elenco di orari dispo- 
nibili. Per far questo non ci sarà bisogno di un'intelligenza arti- 
ficiale. Il contenuto semantico sarà codificato nella pagina Web 
dal direttore amministrativo del Centro usando programmi user- 
friendly per scrivere pagine Web semantiche insieme con le ri- 
sorse elencate nel sito dell'Associazione di fisioterapia. 

H Web semantico è un'estensione di quello attuale, in cui alle 
informazioni viene attribuito un significato definito, che per- 
mette a computer e utenti umani di lavorare meglio insieme. I 
primi passi per inserire questo Web semantico nella struttura di 
quello esistente sono già in corso. Presto questi sviluppi intro- 
durranno nuove e significative funzionalità, via via che le mac- 
chine diventeranno sempre più abili a elaborare e «capire» t dati 
che al momento si limitano a mostrare. 

La proprietà essenziale del World Wide Web è la sua univer- 
salità. La potenza dei link è data dal fatto che qualsiasi cosa può 
collegarsi a qualsiasi altra. La tecnologia del Web, quindi, non 
deve discriminare tra le brutte copie e i lavori finiti, fra informa- 
zioni commerciali e accademiche, o tra culture. lingue, media e 
cosi via. L'informazione varia lungo molteplici assi. Uno di que- 
sti è la differenza fra l'informazione prodotta per l'impiego da 
parte di utenti umani e quella prodotta per le macchine. A un'e- 
siremità della scala abbiamo di tutto, dai comunicati commer- 
ciati di cinque secondi finn a opere poetiche. Dall'altra parte ab- 
biamo ì database, i programmi e le misurazioni dei sensori. Fi- 
nora, il Web è stato sviluppato soprattutto come veicolo per rìo- 
cumenti destinati a utenti umani. Il Web semantico aspira a por- 
re rimedio a questa situazione. 

Come l'Intemet attuale, anche il Web semantico sarà il più de- 
centralizzato possibile. Simili sistemi suscitano enorme interesse, 
e ì loro benefici sono difficili o impossibili da prevedere in antici- 
po. La decentralizzazione richiede però compromessi: il Web de- 
ve gettare vìa l'idea di una coerenza totale, sopportando il fami- 



PS 



@ 



» www.w3.org 

Indirizzo Internet de! World Wide Web 

Consortium(W3C). 



» www.w3.org/200i/sw/ 

Un sito che contiene informazioni approfondite sulle 
ricerche del W3C riguardo al Web semantico. 

* www.SemanticWeb.org/knowmarkup.html 
Un'introduzione alle ontologie. 

• www.cs.umd.edu/projects/plus/SHOE/faq.html 
Domande e risposte riguardo a semplici estensioni di HTML 
alle ontologie. 

» www.daml.org/ 

Home page del DARPAAgent Markup Language (DAML). 



GLOSSARIO 



IN PILLOLE 



■ Fino a oggi, il World Wide Web si è sviluppato più 
rapidamente come strumento di contenuti per uso «umano» 
piuttosto che come mezzo di informazione per l'elaborazione 
automatizzata. Migliorando il contenuto delle pagine Web con 
dati specificamente progettati per i computer e aggiungendo 
documenti comprensibili alle macchine, trasformeremo il Web 
di oggi nel Web semantico. 

■ I computer troveranno il significato dei dati semantici 
seguendo link ipertestuali verso definizioni di parole chiave e 
regole logiche per combinarle. L'infrastruttura che ne risulterà 
permetterà lo sviluppo di servizi Web automatizzati grazie 
all'oso di agenti software dì grande efficacia. 

■ Gli utenti comporranno pagine Web semantiche e 
aggiungeranno definizioni e regole utilizzando software in 
grado di attribuire i significati e di usare regole logiche definite. 



gerato messaggio «Error 404: Noi Found», ma permettendo una 
crescita esponenziale senza limitazioni. Per essere universale, 
cioè per cotisentire un facile accesso a qualsiasi informazione, il 
Web semantico deve essere il meno costrittivo possibde. 

La rappresentazione della conoscenza 

Affinchè il Web semantico funzioni, i computer devono ave- 
re accesso a serie strutturate di informazioni e a regole di dedu- 
zione che permettano un ragionamento automatizzato. Chi la- 
vora sull'intelligenza artificiale studia simili sistemi da molto 
tempo prima che venisse sviluppato il Web. Questo settore, spes- 
so chiamato rappresentazione della conoscenza, è oggi in uno 
stato di sviluppo comparabile con quello della tecnologia degli 
ipertesti prima dell'avvento del Web: è chiaramente una buona 
idea ed esistono alcune dimostrazioni interessanti, ma non ha 
ancora cambiato il mondo. L'idea contiene il seme di importan- 
ti applicazioni, ma deve essere collegata in un unico sistema 
globale per poter liberare la sua piena potenza. 

I sistemi tradizionali di rappresentazione della conoscenza 
sono centralizzati e richiedono di condividere la stessa defini- 
zione di concetti comuni. Ma un controllo centrale è opprimen- 
te, e con la crescita delle dimensioni e degli obiettivi, un simile 
sistema diventa rapidamente ingestibile. Questi sistemi di solito 



LE SCIENZE 393 /maggio 2001 



>- HTML Hypertext Markup 

Language. È il linguaggio usato per 

codificare tutte le caratteristiche 

delle pagine Web. Fa uso 

di «comandi» standard come <Hi> 

e < BODY >, il cui significato 

e interpretazione sono univocamente 

definiti dal World Wide Web 

Consortium. 

> XML: eXtensible Markup 
Language. È un linguaggio come 
HTML che permette di definire 
comandi personalizzati, ma non ha 
un meccanismo interno che 
permetta di comunicare ad altri 
utenti il significato di tali comandi. 

> Resource: In gergo, una qualsiasi 
entità: pagine Web, parti dì esse, 
dispositivi, persone e così via, 

> URL: Uniform Resource Locator. I 
codici (come http;//www.l escienze, 
it] usati nei link ipertestuali. 

> URL Universal Resource Identifier. 
Gli URL sono il tipo più familiare 

di URI. Un URI definisce un'entità, 
senza necessariamente richiamare 
la sua locazione sul Web. 

> R0F: Resource Descrìption 
Framework. Uno schema per definire 
l'informazione. RDF fornisce la 
tecnologia per esprimere il 
significato di termini e concetti in 
una forma che i computer possano 
elaborare. RDF può utilizzare il 
linguaggio XML per la sua sintassi 

e gli URI per specificare entità, 
concetti, proprietà e relazioni, 

*• Ontologie: Collezioni di frasi, 
scritte in un linguaggio come RDF, 
che definiscono le relazioni 
tra concetti e specificano le regole 
logiche. I computer «capiranno» 
il senso dei dati su una pagina Web 
seguendo i link a determinate 
ontologie. 

> Agente: Software che esegue 
compiti definiti da un utente senza il 
diretto controllo da parte dell'utente 
stesso. Gli agenti raccolgono, 
filtrano ed elaborano l'informazione 
che si trova sul Web. 



www.lescienze.it 



faam^nif w.ni.r. 



J«MlM«WV 



rnrnfìrjfflEEÙKlD RD 



QfcCiHd&I&DC 




LE RICERCHE SUL WEB 
finiscono spesso in 
un'interminabile serie 
di risultati del tutto 
irrilevanti che devono 
essere filtrati 
dall'utente. Se 
cercate il termine 
inglese cook [cuoco, 
cucinare], il computer 
non può sapere se 
cercate uno chef, una 
ricetta, le Isole Cook a 
qualcuno che, 
sfortunatamente, si 
chiama proprio così... 
Il problema è che, 
cercando cook, non si 
fornisce alcun 
significato, o 
contenuto semantico, 
al computer, che non 
pufjdìscemeretrale 
diverse opzioni. 



sono anche limitati dal punto di vista delle domande a cui un 
computer può rispondere. 11 problema ricorda il teorema di Go- 
dei: ogni sistema abbastanza complesso da essere utile contiene 
qualche domanda a cui non c'è risposta, proprio come una sofi- 
sticata versione del semplice paradosso: «Questa affermazione è 
falsa». Per evitare simili problemi, ogni sistema di rappresenta- 
zione della conoscenza ha una propria serie di regole per fare 
deduzioni sui dati. Per esempio, un sistema che lavora su un da- 
tabase di alberi genealogici potrebbe avere la regola: «la sorella 
di una madre è una zia». Anche se i dati potrebbero essere tra- 
sferiti da un sistema a un altro, non si potrebbe fare altrettanto 
con la regola. 

I ricercatori che studiano il Web semantico, al contrario, accet- 
tano che paradossi e domande senza risposta siano il prezzo che 
si deve pagare per raggiungere la versatilità. Noi rendiamo il lin- 
guaggio delle regole espressivo quanto è necessario per consenti- 
re al Web di ragionare nel modo più ampio possibile. Questa filo- 
sofia è simile a quella del Web convenzionale. All'inizio del 
World Wide Web, i suoi detrattori affermarono che non sarebbe 
mai diventato una biblioteca ben organizzata: senza un database 
centrale e una struttura ad albero non si sarebbe mai stati sicuri 
di trovare tutto. E avevano ragione. Ma la potenza del sistema re- 
se disponibili enormi quantità di informazioni, e oggi i motori di 
ricerca producono indici soddisfacenti del materiale in rete. 



PS 






La sfida del Web semantico, perciò, è quella di Tornire un lin- 
guaggio che esprima sia i dati sia le regole per ragionare su di 
essi, e che permetta di esportare in rete le regole di qualsiasi si- 
stema di rappresentazione della conoscenza. Le regole di un si- 
stema probabilmente non potranno essere reimportate dal Web 
in un altro sistema, ma questo non è un grave difetto. Il punto è 
quello di rendere disponibile l'informazione. 

Aggiungere logica al Web è il problema che si pone in questo 
momento alla comunità de! Web semantico, compito reso com- 
plicato da una serie di dilemmi matematici e tecnologici. La lo- 
gica deve essere abbastanza potente da descrivere, per esempio, 
le proprietà di proprietà, ma non cosi potente da generare para- 
dossi. Fortunatamente, la maggioranza delle informazioni che 
vogliamo esprimere è nella forma «un dado a testa esagonale è 
un tipo di bullone per macchina», che può essere facilmente 
scritta nei linguaggi esistenti, con l'aiuto di un vocabolario. 

Due importanti tecnologie per lo sviluppo del Web semantico 
sono già disponibili: YeXwnsìble Markup Language (XML) e il 
Risource Di-seri ption Fmmeii'ork {RDF). il linguaggio XML per- 
mette di creare rag personalizzali (etichette che commentano 
pagine Web o porzioni di testo su una pagina). I programmi 
possono fare uso di queste etichette in modi sofisticati, ma il 
programmatore che li scrive deve sapere a che scopo chi ha 
scritto ia pagina Web utilizza un Mg. In breve, XML permette 
agli utenti di aggiungere una struttura ai loro documenti, ma 
non dice nulla su che cosa significhi. 

Il significato è espresso da RDF che lo codifica in serie di triple, 
in cui ogni tripla è analoga a soggetto, verbo e complemento og- 
getto di una frase elementare. In RDF, un documento fa afferma- 
zioni sul fatto che cose particolari (persone, pagine Web o altro) 
hanno proprietà (come «è la sorella di», «è l'autore di») con certi 
valori (un'altra persona, un'altra pagina Web). Le triple sono un 
modo naturale per descrivere gran pane dei dati elaborati dalle 
macchine. Soggetto e complemento oggetto sono identificati da 
un Univmal Resource Identifier (URI, o identificatore universale 
di risorse), analogo a quello utilizzato da un link a una pagina 
Web (gli URI, Unifarm Resource Locaior, sono i più comuni tipi 
di URI). Anche i verbi sono identificati da URI, che permettono a 
chiunque di definire un nuovo concetto, un nuovo verbo, sem- 
plicemente definendo un loro URI da qualche parte sul Web. 

Spesso il linguaggio umano usa lo stesso termine per espri- 
mere cose un po' diverse, ma l'automazione non può farlo. Im- 
maginate di assumere un servizio di clown messaggeri per con- 



segnare palloncini ai clienti in occasione del loro compleanno. 
Sfortunatamente il servizio preleva gli indirizzi da un database, 
non sapendo che gli «indirizzi» indicati sono quelli dove vengo- 
no mandate le fatture, e molti di essi sono solo caselle postali. I 
clown finirebbero con l'intrattenere un certo numero di impie- 
gati delle poste, il che non è necessariamente una brutta cosa, 
ma non è ciò che si desiderava. Il problema si risolve usando un 
diverso URI per ciascun concetto. Un indirizzo che è un luogo 
può essere così differenziato da una semplice casella postale. 

Le triple di RDF formano ragnatele di informazioni riguardo a 
cose correlate (o «risorse», nel gergo del Web). Poiché RDF usa 
XML per codificare l'informazione in un documento, gli URI ga- 
rantiscono che i concetti non siano solo parole in un documento, 
ma che siano legati a una definizione univoca die chiunque può 
trovare in rete. Immaginiamo dì avere accesso a una varietà di 
database con informazioni su persone, compreso il loro indirizzo. 
Se vogliamo trovare persone che vivono in una zona con uno 
specifico codice di avviamento postale, dobbiamo sapere quali 
campì di ogni database rappresentano i nomi e quali rappresen- 
tano i codici postali, RDF può specificare che «{il campo 5 nel da- 
tabase A) (è un campo di tipo) (codice di avviamento postale)», e 
cosi via, usando per ciascun termine URI anziché frasi. 

Ontologie in rete 

I guai non finiscono qui: due database possono usare identi- 
ficatori diversi per lo stesso concetto. Un programma che vuole 
confrontare o combinare informazioni da due database deve sa- 
pere quali termini vengono usati per indicare la stessa cosa. 
Idealmente, il programma deve avere un mezzo per scoprire tali 
significati comuni per qualsiasi database. 

Una soluzione è data dal terzo componente del Web semanti- 
co: raccolte di informazioni che chiamiamo ontologie. In filoso- 
fia, un'ontologia è una teoria sulla natura dell'esistenza, su quali 
tipi di cose esistono. I ricercatori del Web e dell'intelligenza arti- 
ficiale hanno adottato questo termine per il loro gergo, e per loro 
l'ontologìa è un documento o un file che definisce formalmente 
le relazioni fra termini. Il più caratteristico tipo di ontologia per il 
Web ha una tassonomia e una serie di regole di deduzione. 

La tassonomìa definisce classi di oggetti e le loro relazioni. 
Per esempio, un indirizzo può essere definito come un tipo di 
ubicazione, e il codice cittadino può venire definito in modo da 
essere applicato solo a ubicazioni e cosi via. Le classi, le sotto- 



Fryer Mechanicals 






E quale la killer app? 

Dopo una presentazione del Web semantico, spesso ci 
sentiamo chiedere: «Bene, e quale sarebbe la killer 
application del Web semantico?». La killer app di una tecnologia 
è l'applicazione che porta un utente a provarla e poi a usarla con 
assiduità. La radio a transistor fu la killer app dei transistor, e il 
telefono cellulare è quella della tecnologia senza fili. 

«ti Web semantico è già la killer app» rispondiamo noi. Di 
solito ci scambiano per matti, così tocca a noi fare una 
domanda: «Bene, il Wortd Wide Web è la killer app di che cosa?». 
Di salito ci troviamo di fronte gente dagli occhi sgranati, e allora 
rispondiamo noi stessi: «Se il Web è la killer app di Internet, il 
Web semantico è una killer app della stessa grandezza». 

Il punto è che le capacità del Web semantico sono troppo 
generali per essere pensate solo in funzione della soluzione di 
un particolare problema o per creare qualche nuovo aggeggio. 



Avrà applicazioni che non abbiamo mai nemmeno sognato. 
Nondimeno, possiamo intravedere qualcuna delle disarmanti 
applicazioni iniziali. I cataloghi on line avranno contrassegni 
semantici utili sia agli acquirenti sia ai venditori. 

Sarà più facile eseguire piccole transazioni commerciali con 
meccanismi di sicurezza e in autonomia. E infine, si potranno 
fare tranquillamente prenotazioni per un lungo viaggio 
all'estero: voli, alberghi e perfino un concerto o un biglietto di 
teatro. Tutte le prenotazioni si caricheranno automaticamente 
nella vostra agenda e le spese saranno addebitate 
direttamente sul vostro conto corrente, qualunque sia il 
software semantico che utilizzate. Niente più copia e incolta 
dall'e-mail. E non ci sarà più bisogno, per l'e-commerce, di 
inserire dati in una mezza dozzina di formati diversi o di creare 
un formato a parte. Beh, vi pare poco? 



tJlHOTÌillL 




desJardins A.l. 




Cybernetics 



is client of 



RICERCHE PRECISE, 

elaborate e 

automatizzate 

saranno possibili solo 

quando il Web sarà 

ricco di semantica. 



McGarry Auto mata Inc. w. un motore 

ìii)U{) d i ricerc a trov a 

/ Stauffer Androids Ltd 



correttamente una 

persona in base a una 

serie di indicazioni: il 

cognome è Cook, 

lavora per una società 

di cui siete clienti e ha 

un figlio che frequenta 

la vostra vecchia 

università. La corretta 

combinazione delle 

informazioni non è su 



SO 



LE SCIENZE 393/ maggio 20D1 




classi e le relazioni fra enti sono uno strumento potente per l'u- 
so del Web. Possiamo esprimere un gran numero di relazioni fra 
enti assegnando proprietà alle classi e permettendo alle sotto- 
classi di «ereditare» tali proprietà. Se il codice cittadino deve es- 
sere del tipo «città», possiamo trattare il sito Web associato a un 
codice cittadino anche se nessun database connette direttamen- 
te questo codice con un sito Web. 

Le regole di deduzione danno potenza aggiuntiva. Un'ontolo- 
gia può esprimere la regola: «se un codice cittadino è associato a 
un codice statale e un codice indirizzo utilizza il codice cittadi- 
no, allora quell'indirizzo ha il relativo codice statale». Un pro- 
gramma può Facil mente dedurre, per esempio, che un indirizzo 
della Cornell University dì Ithaca deve essere nello Stato di New 
York, che si trova negli Stati Uniti, e quindi deve essere scritto 
secondo gli standard americani. Il computer non «capisce» nes- 
suna di queste informazioni, ma può manipolare ì termini mol- 
to efficacemente e in modi significativi per l'utente. 

Quando in rete sì travano pagine ontologiche, iniziano a deli- 
nearsi le soluzioni ai problemi di terminologia. Il significato di 
termini o di codici XML utilizzati su una pagina Web può essere 
definito da puntatori che conducono all'ontologia. Gli stessi pro- 
blemi di prima sorgono se io definisco un puntatore a un'ontolo- 
gia che definisce gli indirizzi che contengono un codice di avvia- 
mento e voi puntate a un'altra che usa un codice postale. Questo 
tipo di confusione potrebbe essere risolto se le ontologie fornisse- 
ro le relazioni di equivalenza: una o entrambe le nostre ontologie 
potrebbero contenere informazioni sul fatto che i due codici sono 
la stessa cosa e il problema sarebbe risolto. 

Il problema dell'invio dei clown si risolve quando i due da- 
tabase puntano a due differenti definizioni di indirizzo. Il pro- 
gramma viene avvertito che devono prima essere risolte le dif- 
ferenze fra ì termini. La soluzione potrebbe includere l'uso di 
un servizio che prende un elenco di indirizzi postali e lo con- 
verte in uno di indirizzi fisici, riconoscendo e rimuovendo le 
caselle postali e altri indirizzi inadatti. La struttura e la seman- 
tica fornite dalle ontologie rendono più semplice gestire un si- 
mile servizio e fanno si che il suo impiego sia completamente 
trasparente. 

Le ontologie possono migliorare il funzionamento del Web 
in molti modi. Per esempio, esse possono essere usate in modo 
semplice per migliorare l'accuratezza delle ricerche in rete. Sup- 
ponete di voler acquistare un nuovo cancello per la vostra casa 
e di fare una ricerca con la parola chiave gates. Troverete mol- 
te più pagine su Bill Gates o sull'attrice Gates McFadden o altre 
persone e luoghi chiamati Gates, piuttosto che su accessori per 
• la casa. Se le pagine Web contengono puntatori alle ontologie, 
il problema può essere alleviato: potreste cercare informazioni 
usando un programma per selezionare una particolare defini- 
zione di gare. 

La vera potenza delle ontologie si scatena quando i computer 
ne fanno un uso più sofisticato per correlare le informazioni su 
una pagina con le relative strutture di conoscenza e regole di 
deduzione. Per esempio, se puntate il vostro browser Web alla 
pagina http://www.cs.umd.edu/~hendler, vedrete la normale 
pagina Web del «Dr, James Hendler». Non vi è difficile trovare il 
collegamento a una breve nota biografica e leggere che Hendler 
ha conseguito il suo Ph.D. alia Brown University. Un program- 
ma per computer che tentasse di trovare la stessa informazione, 
tuttavia, dovrebbe essere molto complesso per capire che questa 
informazione potrebbe trovarsi in una biografia e per capire i 
termini inglesi in essa usati. 

Per ii computer, la pagina Web è coliegata a una pagina on- 
tologica che definisce le informazioni a proposito dei diparti- 
menti di informatica. Per esempio, i professori lavorano nelle 
Università, generalmente hanno il dottorato e così via. Un'ulte- 
riore etichettatura della pagina (non mostrata da un browser 



normale) usa i concerti propri dell'ontologìa per specificare che 
Hendler ricevette il suo Ph.D. dall'ente descritto dall'URI http:// 
www.brown.edu/: la pagina Web della Brown University. Il 
computer può anche trovare che Hendler è membro dì un parti- 
colare progetto di ricerca, ha un certo indirizzo e-mail e cosi via. 
Tutte queste informazioni sono facilmente elaborate da un com- 
puter e possono essere usate per rispondere a domande {dove ha 
conseguito il dottorato il dottor Hendler?) che al momento ri- 
chiederebbero un essere umano per analizzare il contenuto delle 
pagine trovate dal motore di ricerca. 

Inoltre, questa etichettatura rende molto più semplice mette- 
re a punto programmi che possano affrontare domande com- 
plicate, la cui risposta non risiede in una sìngola pagina Web. 
Supponete di voler trovare la signora Cook che avete incontra- 
to l'anno scorso a un congresso. Non rammentate il suo nome 
di battesimo, ma ricordate che lavorava per uno dei vostri 
clienti e che suo figlio studiava nella vostra stessa Università. 
Un programma di ricerca intelligente può scorrere rune le pagi- 
ne delle persone il cui nome è Cook (saltando le pagine che 
parlano di cuochi - cook in inglese - dell'Isola di Cook e così 




via); può trovare quelle che accennano al fatto dì lavorare per 
una società che è nel vostro elenco di clienti e seguire i collega- 
menti alle pagine Web dei loro figli per trovare quelli che stan- 
no studiando nel posto giusto. 

Agenti software per il Web semantico 

La vera potenza del Web semantico si realizzerà quando ver- 
ranno creati molti programmi che raccolgano il contenuto Web 
da diverse fonti, elaborino le informazioni e scambino i risultati 
con altri programmi. La potenza di questi «agenti» software cre- 
scerà esponenzialmente via via che saranno disponibili sempre 
più pagine Web leggìbili da macchine e servizi automatici. Il 
Web semantico promuove questa cooperazione: anche agenti 
che non erano progetta ri per lavorare insieme possono scambiar- 
si dati, se questi sono dotati di una semantica. 

Una caratteristica importante del funzionamento degli agenti 
sarà lo scambio di «prove» scritte nel linguaggio unificante del 
Web semantico (il linguaggio che esprime le deduzioni logiche 
fatte usando regole e informazioni come quelle specificate nelle 
ontologie). Supponiamo che un servìzio on line abbia localizza- 
to l'informazione per mettervi in contatto con la signora Cook: 
con vostra sorpresa, la colloca a Johannesburg. Naturalmente 
volete verificare l'informazione, e quindi il vostro computer 
chiede al servizio una prova di questa risposta, che viene fornita 
traducendo il suo ragionamento interno nel linguaggio unifi- 
cante del Web semantico. Un motore di deduzione ne) vostro 



82 



LE SCIENZE 393 /maggio 2001 



GLI AGENTI SOFTWARE avranno vita facile, con 
più contenuto semantico sul Web. Nell'esempio, 
l'agente di Lucy rintraccia una clinica 
fisioterapica perla madre combinando una serie 
di criteri di scelta e fissa appuntamenti 
in accordo con gli impegni suoi e del fratello, 
Pete. Le ontologie che definiscono il significato 
semantico dei dati permettono all'agente 
di capire i contenuti, di interagire con i siti 
e di usare servizi automatizzati. 



GLI AUTORI 



BERNERS-LEE dirige il World Wide Web 
Consortium (W3C) ed è ricercatore pres- 
so il Laboratory for Computer Science 
del M IT. (3 u a ndo inve ntò i I Web, ne I i 58 9, 
intendeva introdurre più semantica di 
quanta ve ne sta. Mei suo libro Weaving 
the Web definisce il Web semantico e ciò 
che occorrerà per reaiizzario. 
HENDLER insegna informatica all'Uni- 
versità del Maryland, dove studia la rap- 
presentazione della conoscenza in rete, 
e ha sviluppato SHOE, il primo linguaggio 
di rappresentazione basato sul Web, per 
dimostrare le capacità degli agenti 
software. È responsabile di un progetto 
di ricerca delta Defense Advanced Re- 
search ProjectsAgency di Arlington. 
LASSILA è ricercatore al Centro ricerche 
Nokia di Boston. Frustrato dalla diffi- 
coltà di costruire agenti e di automatiz- 
zare i compiti sul Web, è stato coautore 
delie specifiche di RDF del W3C, che fun- 
gono da fo n d a menta per mo It i I avori tesi 
alla creazione del Web semantico. 



Lucy fornisce 
le istruzioni 



II suo agente r ^*? 

segue gli hyperlink 
della richiesta delle 
ontologie in cui sono 
definiti j termini chiave. 
I link alle ontologie sono 
usati a ogni passo 




Dopo aver ottenuto '•. 
dal computer del dottore 
le informazioni sul 
trattamento e il calendario 
degli impegni dai computer 
di Lucy e Pete, l'agente 
si rivolge a un servizio 
di ricerca di Fornitori. 



L'agente di Lucy ,, 
e il servizio di ricerca 
negoziano ^1 

attraverso ontologie 
e si accordano 
sul costo del servizio. 




USTE DELLA COMPAGNIA 
DI ASSICURAZIONE 



SERVIZIO Di ricerca 
.-• QEL FORNITORE © || servizio di ricerca 
it '. '. spedisce il proprio 

agente a fare 
<ifc una ricerca nelle liste 
della compagnia 
di assicurazione 
e nei siti di fornitori. 
SITI DI FORNITORI 



o 

L agente di Lucy 
interagisce con i siti 
dì fornitori per trovarne 
uno con orari 
disponibili e cerca 
di fissare 
un appuntamento 




computer può facilmente verificare che la signora Cook è effet- 
tivamente quella che stavate cercando, e vi può mostrare le pa- 
gine Web più rilevanti, se avete ancora dubbi. Sebbene siano 
ancora lontani dal sondare le profondità del potenziale dei Web 
semantico, alcuni programmi possono già scambiare prove, 
usando la versione preliminare del linguaggio unificante. 

Un'altra caratteristica vitale saranno le firme elettroniche: 
blocchi di dati crittografati che computer e agenti possono usa- 
re per verificare che le informazioni allegate siano state fornite 
da una fonte di fiducia. Ovviamente volete essere sicuri che un 
messaggio inviato al vostro programma di contabilità sul fatto 
che avete un debito verso un venditore on line non è una falsa 
informazione generata dall'adolescente maniaco di computer 
della porta accanto. Gli agenti dovrebbero essere scettici a pro- 
posito delle affermazioni che leggono sul Web semantico fino a 
quando non hanno verificato la loro fonte. 

Molti servizi automatizzati basati sul Web esistono già senza 
semantica ma altri programmi, come gli agenti, non hanno mo- 
do di localizzare un servizio che esegua una funzione specifica. 
Questo processo - il ritrovamento di un servizio - può avvenire 
solo quando c'è un linguaggio comune per descrivere il servizio 
in un modo che permetta agli agenti di capire la funzionalità of- 
ferta e soprattutto come servirsene. Servizi e agenti possono pub- 
blicizzare la loro funzione, per esempio, depositando descrizioni 
in elenchi simili alle Pagine gialle: una forma di pubblicità molto 
migliore dei banner che infestano numerosi siti Web odierni. 

Alcuni metodi di riconoscimento dei servizi esistono già, co- 



me Universa! Plug and Play, della Microsoft, concentrato sulla 
connessione di diversi tipi di dispositivi hardware, e Jini, della 
Sun Microsystems, che ha invece lo scopo di connettere servizi. 
Queste iniziative, tuttavia, affrontano il problema a livello strut- 
turale o sintattico e si basano pesantemente sulla standardizza- 
zione di una serie predeterminata di descrizioni di funzionalità. 
La standardizzazione può spingersi solo fino a un certo limite, 
poiché non possiamo anticipare tutti i possibili bisogni futuri. 

Il Web semantico è più flessibile. Gli agenti dei produttori e 
dei consumatori possono intendersi a vicenda scambiandosi on- 
tologie, che forniscono il vocabolario necessario alla discussio- 
ne. Gli agenti possono anche sviluppare nuove capacità di ra- 
gionamento quando scoprono nuove ontologie. Le semantiche 
rendono anche più semplice sfamare un servizio che risponde 
solo parzialmente alla richiesta. 

Un processo tipico implicherà la creazione di una «catena di 
valori» in cui sottoinsiemi di informazione vengono passati da 
un agente all'altro, e ognuno di essi «aggiunge un valore» per co- 
struire il prodotto finale richiesto dall'utente. Beninteso: per crea- 
re automaticamente sofisticate catene di valori su richiesta, alcu- 
ni agenti dovranno usane tecniche di intelligenza artificiale in 
aggiunta a quelle offerte dal Web semantico. Ma quest'ultimo 
fornirà l'architettura per realizzare simili tecnologie. 

L'insieme di tutte queste caratteristiche produce le capacità 
messe in mostra dagli agenti di Pete e Lucy nell'episodio che 
apre l'articolo. E loro agenti potrebbero delegare parte del com- 
pito ad altri servizi o ad agenti scoperti attraverso la pubblicità. 



www.lescienze.it 



83 



Per esempio, gli agenti potrebbero avere un servizio sicuro per 
procurarsi un elenco di fornitori e decidere quali siano conformi 
a specifiche convenzioni assicurative e modalità di trattamento. 
L'elenco dei fornitori sarebbe a sua volta fornito da un altro ser- 
vizio di ricerca, e così via. Queste attività producono catene in 
cui grandi quantità di dati distribuite in tutto i] Web (e quasi 
inutilizzabili in quella forma) sono via via ridotte ai pochi dati 
importanti per Pete e Lucy: una serie di appuntamenti che si 
adattano ai loro impegni e alle loro richieste. 

Il passo successivo per il Web semantico sarà quello di usci- 
re dal regno virtuale ed estendersi nel mondo fisico. Gli URI 
possono puntare a qualsiasi cosa, compresi enti fisici, il che si- 
gnifica che si può usare il linguaggio RDF per descrivere dispo- 
sitivi come telefoni cellulari e televisori. Questi dispositivi pos- 
sono allora dichiarare le loro funzionalità - ciò che sono in gra- 
do dì fare e come sono controllati - in modo simile agli agenti 
software. E dato che essi sono molto più flessibili di sistemi co- 
me Plug and Play, un simile approccio semantico apre un mon- 
do di enormi possibilità. 

Per esempio, ciò che oggi è chiamato «automazione domesti- 
ca» richiede un'accurata configurazione che permetta a tutti gli 
elettrodomestici di funzionare insieme. Le descrizioni semanti- 



Avete mai 

navigato in internet 

aperto un Ale, 

ascoltato un CD? 

Allora avete usato, magari 

senza saperlo, semiconduttori, 

fibre ottiche, polimeri avanzati 

e gli altri materiali di nuova 

generazione che stanno 

cambiando il mondo 

in cui viviamo, 

. er essere protagonisti 

nello studio, 

nella progettazione 

e nella produzione dei 

materiali del futuro 



ss> 



i. 



Laurea in 
Scienza dei Materiali 

Università di Milano Bicocca 

per infotmazioni: 
te!. 02 6448-5137/5102 

http://wiArju.mafter.unimib.it/CdL 



che delle capacità e delle funzionalità dei diversi apparecchi ci 
permetteranno di conseguire l'automazione con un intervento 
umano minimo. Un esempio banale è ti momento in cui Pete ri- 
sponde al telefono e il volume dell'impianto stereo si abbassa 
automaticamente. Invece di programmare ogni specifico elettro- 
domestico, Pete definisce una volta per tutte questa finizione per 
comandare ogni dispositivo locale dotato di un controllo del vo- 
lume, come il televisore, il DVD e anche i programmi multime- 
diali sul computer portatile. 

11 primo passo concreto in questo settore è già stato intrapre- 
so, con lavori per sviluppare uno standard che descriva le capa- 
cità funzionali dei dispositivi (come le dimensioni degli schermi) 
e le preferenze dell'utente. Costruito in RDF, questo standard si 
chiama Composite Capability/Preference Pmfìk (CC/PP). All'ini- 
zio CC/PP permetterà ai telefoni cellulari e ad altri clienti Web 
non standard di descrivere le proprie caratteristiche in modo che 
il contenuto del Web possa essere adattato a loro in tempo reale. 
Più tardi, quando si aggiungerà la potenza dei linguaggi che ge- 
stiscono le ontologie e la logica, i dispositivi potrebbero auto- 
maticamente cercare e utilizzare servizi e altri dispositivi per ot- 
tenere informazioni e sviluppare funzionalità aggiuntive. Non è 
difficile immaginare un forno a microonde collegato al Web che 
consulta i produttori di cibo congelato per conoscere i migliori 
parametri di cottura. 

Verso un'evoluzione della conoscenza 

Il Web semantico non è solamente uno strumento per svolge- 
re i singoli compiti che abbiamo discusso finora: se sarà proget- 
tato appropriatamente, potrà facilitare l'evoluzione dell'intera 
conoscenza umana. 

Le attività dell'uomo sono caratterizzate da un'eterna tensio- 
ne tra gruppi che agiscono indipendentemente e la necessità di 
inserirsi in una comunità più vasta. Un pìccolo gruppo può svi- 
luppare innovazioni velocemente e con efficienza, ma così fa- 
cendo genera una sottocultura i cui conceni non sono capiti da- 
gli altri. Coordinare le azioni di un vasto gruppo, tuttavia, è un 
processo lento, e richiede un'enorme mole di comunicazione, 11 
mondo funziona a tutti i livelli tra questi estremi, con una ten- 
denza a iniziare dal piccolo - dalle idee personali - per muoversi 
co! tempo verso una comprensione più generale. 

Un processo essenziale è l'unione delle sottoculture quando 
diventa necessario un linguaggio comune. Spesso due gruppi 
sviluppano indipendentemente concetti molto simili e descrive- 
re le relazioni tra essi è molto utile. Come un dizionario italia- 
no/inglese, o una tabella di conversione di pesi e misure, le rela- 
zioni permettono di comunicare e di collaborare anche quando 
la condivisione dei concetti non ha ancora portato a una condi- 
visionedi termini. 

11 Web semantico, definendo ogni concetto semplicemente 
con un URI, permette a chiunque di inventarne di nuovi, a suo 
piacimento. Il suo linguaggio logico di unificazione permetterà 
a questi concetti di essere progressivamente collegati in un 
Web universale. Ciò renderà disponibili conoscenza e lavoro 
umano all'analisi da parte degli agenti software, offrendoci una 
nuova classe di strumenti con i quali potremo vivere, lavorare e 
imparare insieme. 



BIBLIOGRAFIA 



8ERNERS-LEE TIM e FISCHETTI MARK, Weaving the Web: The Originai Desi- 
gn and Ultimate Destini/ o/fhe Worìd Wide Web by Its Inventar. Harper 
San Francisco, 1999. 

Una versione più estesa di questo articolo si trova sul sito di Scierttific Ame- 
rican [www.sci am.com) con materiale di approfondimento e link. 



34 



LE SCIENZE 393 /maggio 2001 



DENVER. IN COLORADO, si trova a un altitudine 
di oltre 1600 metri, ma poggia su un basamento 
di rocce marine mdeformaieonginates 
da sedimenti di mare poco profondo nei corso 
del Cretaceo. A quell'epoca il continente 
nordamericano doveva essersi abbassato 
di diverse centinaia dì metri, permettendo 
alle acque di invaderlo. 




Una Terra 

SCOLPITA 

dall'interno 



di Michael Gurnis 



I movimenti interni 
al mantello terrestre 
non hanno solo 
l'effetto di spostare 
orizzontalmente le zolle, 
ma possono anche 
sollevare o abbassare 
direttamente le masse 
continentali 




e forme irregolari della superficie terrestre sorto normalmente 
ricondotte alle collisioni fra zolle tettoniche, i frammenti mobi- 
li dell'involucro roccioso esterno del nostro pianeta. Il solleva- 
mento della catena himalayana, per esempio, è l'esito dello 
scontro tra Asia e subcontinente indiano, mentre le Ande sono 
il prodotto della subduzione della crosta oceanica del 
Pacifico al di sotto del continente sudamericano. Ma 
nemmeno l'energia messa in gioco dalla tettonica delle zolle può 
spiegare del tutto alcune delle più grandi strutture visibili sulla Terra. 
Si consideri l'Africa australe. Questa regione vanta uno dei plateau 
più vasti del globo: esteso per oltre 1500 chilometri e spesso oltre 
1500 metri. I dati geologici mostrano che l'Africa meridionale, e ì fon- 
di oceanici che la circondano, si sono sollevati lentamente per gli ul- 
timi 100 milioni di anni, anche se non vi sono collisioni tettoniche in 
corso da circa 400 milioni di anni. Questo fenomeno, detto African 
superswell, è solo uno fra i possibili esempi di dinamica verticale di 
un'ampia porzione della superficie terrestre. In altri casi, fin dal pas- 
sato più remoto, vaste regioni dell'Australia e del Nord America han- 



86 



LE SCIENZE 393 /maggio 2001 



www.lescienze.it 



8? 



I 



no subito sprofondamenti per parecchie centinaia di metri per 
poi risalire nuovamente. 

Si sospetta da tempo che queste variazioni verticali della su- 
perficie terrestre siano dovute ad attività molto profonde. All'ini- 
zio le ricerche hanno preso in considerazione il mantello, lo stra- 
to intemiedio del pianeta. Questa regione, costituita da rocce ad 
altissima temperatura, si trova sotto il mosaico formato dalle zol- 
le tettoniche, e si estende verso il centro della Terra per circa 
2900 chilometri, fino al limile esterno del nucleo (costituito prin- 
cipalmente da ferro). Le variazioni di temperatura e pressione al- 
l'interno del mantello permettono alle rocce che lo costituiscono 
di scorrere in modo viscoso per migliaia di anni. Ma non si capi- 
va come mai da attività del mantello si potessero sviluppare 
grandi movimenti verticali. Oggi, però, potenti modelli compute- 
rizzati che combinano «istantanee» del mantello con i dati sul 
suo comportamento passato iniziano a spiegare perché parti del- 
la superficie terrestre abbiano subito questi stupefacenti su e giù. 

U mistero dell'African superswell è stato tra i più facili da de- 
cifrare. Fin dalla prima metà del XX secolo i geofilici hanno ca- 
pito che, su tempi geologici, il mantello non solo scorre in modo 
viscoso, ma si rimescola come una minestra in procinto di bolli- 
re. La densità relativamente bassa della roccia più calda fa si che 
tenda a galleggiare, e quindi a risalire lentamente. Viceversa, la 
roccia più fredda e quindi più densa tende ad affondare, finché 
il calore che si propaga dal nucleo la riscalda fino a farla risalire 
nuovamente. Questo moto di convezione è in grado di provoca- 
re il movimento orizzontale delle zolle, ma sembrava poco plau- 
sibile che le forze da esso originate fossero anche in grado di 



sollevare e abbassare la superficie del pianeta. Questo scettici- 
smo cominciò a venir meno quando i ricercatori ottennero le 
prime vaghe immagini dell'interno della Terra. 

Una ventina d'anni fa fu messa a punto una tecnica per rea- 
lizzare immagini in 3D del mantello con la misurazione di vi- 
brazioni generate da terremoti nel guscio più esterno del piane- 
ta. Le velocità di queste onde sismiche sono determinate da 
composizione chimica, temperatura e pressione delle rocce che 
ne vengono attraversate. Le onde si propagano con lentezza in 
rocce molto calde di bassa densità, mentre acquistano velocità 
in regioni più fredde e dense. Registrando il tempo impiegato da 
un'onda sismica per viaggiare dall'epicentro di un terremoto a 
una stazione di rilevamento in superficie, si può risalire alle 
condizioni di temperatura e densità di una certa regione situata 
in profondità. E compilando una mappa delle velocità sismiche 
per migliaia di terremoti avvenuti in tutto il globo, si può inizia- 
re a mappa re le temperature e le densità in tutto il mantello. 

Queste istantanee sismiche, che divengono sempre più detta- 
gliate via via che 1 ricercatori dispongono di metodologìe più 
precise, hanno messo in evidenza formazioni di immensa esten- 
sione nelle parti più profonde del mantello. La più grande di que- 
ste strutture si trova proprio sotto l'estremità dell'Africa australe. 
Un paio d'anni fa, Jeroen Ritsema ed Hendrik-Jan van Heijst, del 
California Institute of Technology, hanno calcolato che questa 
massa a forma di fungo si spinga fino a quasi 1500 chilometri 
dal nucleo estendendosi iti orizzontale per parecchie migliaia di 
chilometri [si veda l'illustrazione a pagina 92 in alto). 

1 due sì sono chiesti se sia questa enorme bolla a spingere il 




LE ONDULAZIONI di questa superfìcie 
trasparente sovrapposta al planisfero 
rappresentano le variazioni naturali del campo 
gravitazionale terrestre. Gli alti indicano una 
gravità più intensa della media, causata da 
una tasca di massa in eccesso all'interno della 
Terra; i bassi corrispondono alle regioni in cui 
un ammanco di massa produce anomalie 
negative della gravità. Queste variazioni del 
campo gravitazionale denunciano anomalie 
nella struttura del mantello terrestre. 



L'AUTORE 



MICHAEL GURNIS è un geofisico che si occupa di dinamica della tettonica delle zolle e dell'in- 
terno della Terra. Questi processi fisici, che governano la storia del pianeta, lo affascinano da 
quando ha intrapreso lo studio della geologia, 20 anni fa. Con il suo gruppo di ricerca del Ca- 
lifornia Institute of Technology, Gurnis sviluppa ora modelli computerizzati che simulano i mo- 
vimenti in corso del mantello, mostrando come tali movimenti abbiano contribuito a dare for- 
ma ai continenti nel corso del tempo. Negli ultimi tre anni Gurnis si è impegnato soprattutto 
nella risoluzione di due enigmi: l'attuale sollevamento dell'Africa australe e le oscillazioni ver- 
ticaìi dell'Australia nel corso del Cretaceo. 




ENIGMATICI SOLLEVAMENTI E ABBASSAMENTI hanno interessato, parecchie volte nel passato, grandi regioni della 
superfìcie terrestre. Nel corso degli ultimi 20 milioni di anni, per esempio, l'Africa meridionale ha subito un sollevamento 
dell'ordine dei 300 metri. Viceversa l'Indonesia rappresenta solo la parte più elevata di un continente sommerso. Si 
ritiene che la causa di questi sorprendenti movimenti verticali risieda nelle profondità del mantello terrestre. 



continente africano verso l'alto. Dato che la bolla è una regione 
di bassa velocità delle onde sismiche, essi hanno assunto che si 
trovi a una temperatura maggiore rispetto al mantello. E Ea fisi- 
ca della convezione suggeriva che una bolla calda fosse destina- 
ta a risalire- Ma un'immagine ricavata dall'elaborazione di un 
evento sismico registra solo una situazione «istantanea», e quin- 
di solo un'immagine statica di una struttura. Se la bolla fosse di 
composizione differente rispetto alla roccia circostante, per 
esempio, potrebbe essere anche più calda senza essere costretta 
a risalire. Così. Jerry X. Mitrovica, dell'Università di Toronto, e 
io abbiamo deciso di creare una «visione al rallentatore» del pro- 
cesso che potrebbe essere in corso. Abbiamo inserito la forma 
della bolla e la sua densità stimata - nonché la stima del tempo 
trascorso dall'inizio del processo di sollevamento dell'Africa au- 
strale - in modelli numerici che simulano la convezione nel 
mantello. Cosi abbiamo riscontrato che la bolla è in effetti sog- 
getta a una spinta di galleggiamento tale da farla risalire lenta- 
mente all'interno del mantello, ed è abbastanza «forte» da spin- 
gere verso l'alto il continente africano durante la risalita. 

I profili sismici e i modelli computerizzati erano sufficienti a 
risolvere l'enigma deli'African superswell, ma per spiegare i mo- 
vimenti alternati in su e in giù del Nord America e dell'Austra- 
lia, assai più complessi, abbiamo dovuto seguire una via molto 
più indiretta. I geofisici che si limitano a pensare a come sia il 



mantello attualmente non sono in grado di spiegare in che mo- 
do esso dia forma alla superficie terrestre. Essi devono quindi 
mutuare in qualche modo la prospettiva storica dei geologi tra- 
dizionali, che sono abituati a pensare al modo in cui la superfì- 
cie terrestre è cambiata nel corso del tempo. 

Fantasmi dal passato 

Gli elementi che avrebbero aiutato a spiegare gli spostamenti 
in verticale dell'Australia e del Nord America iniziarono a emer- 
gere con le ricerche su un argomento apparentemente non corre- 
lato: l'influenza delia densità del mantello sul campo gravitazio- 
nale terrestre. Negli anni sessanta, i principi della fisica facevano 
pensare che la gravità presentasse dei minimi al di sopra di ta- 
sche di roccia molto calda, che sono meno dense e quindi hanno 
una massa inferiore. Ma quando ì geofisict cartografarono per la 
prima volta le variazioni gravitazionali della Terra, non trovaro- 
no alcuna evidente correlazione tra la gravità e le parti più calde 
del mantello. almeno non secondo la modalità prevista. 

Addirittura, a cavallo tra gli anni settanta e ottanta, Clement 
G. Chase scopri una correlazione opposta. Quando Chase, ora al- 
l'Università dell'Arizona, prese in considerazione scale geografi- 
che superiori ai 1500 chilometri, riscontrò che l'attrazione gravi- 
tazionale era più forte non sopra parti relativamente più fredde 



del mantello, ma sopra le regioni vulcaniche isolate dette punti 
caldi {hot spot). Forse ancora più sorprendente fu ciò che Chase 
notò a proposito di una lunga fascia a bassa gravità che partendo 
dalla Baia di Hudson, in Canada, passa per il polo Nord, per scen- 
dere, attraverso la Siberia e l'India, fino all'Antartide. Basandosi 
su stime dell'antica configurazione delle zolle, egli mostrò che 
questa fascia corrispondeva alla posizione (125 milioni di anni 
fa) di una serie di zone di subduzione: vale a dire zone in cui le 
zolle, trascinando lembi di crosta oceanica, sì inabissavano nel 
mantello. Insomma: sembrava che i fantasmi di antiche zone di 
subduzione provocassero una diminuzione dell'attrazione gravi- 
tazionale. Ma se fosse stato vero che frammenti di crosta oceani- 
ca freddi e densi stavano ancora affondando attraverso il man- 
tello, la gravità avrebbe dovuto essere maggiore, e non minore. 

A metà degli anni ottanta, Bradford H. Hager, ora al Massa- 
chusetts Instilute of Technology, risolse questo apparente para- 
dosso ipotizzando che altri Fattori, oltre alla temperatura, potes- 
sero creare eccedenze o ammanchi di massa nel mantello. Hager 
sviluppò la sua teoria a partire dai principi della dinamica dei 
fluidi, dato che il comportamento a lungo termine del mantello 
approssima quello dì un fluido. Quando un fluido di bassa den- 
sità sale verso l'alto, come fa la parte più calda del mantello, il 
suo flusso spinge all'insù anche il fluido di maggiore densità che 
lo sormonta. Questo fenomeno provoca un eccesso di ma:ssa (e 



IN PILLOLE 



■ Le collisioni tra zolle tettoniche, chiamate in causa per 
giustificare le irregolarità della superficie terrestre, non sono 
tuttavia sufficienti a spiegare strutture come YAfrican 
superswell. Solo con i modelli al computer di oggi si è riusciti 
ad attribuire queste variazioni ai movimenti del mantello. 

■ Su tempi geologici, Il mantello si rimescola, La densità 
relativamente bassa della roccia più calda fa sì che tenda 

a risalire lentamente. Viceversa, la roccia più fredda e quindi più 
densa tende ad affondare. Questo moto di convezione è 
in grado di provocare il movimento orizzontale delle zolle, ma 
anche di alzare e abbassare grasse porzioni della superficie. 

■ Circa 130 milioni di anni fa, l'Australia fu invasa dalle acque 
più rapidamente di altri continenti, il fenomeno si spiega con un 
concomitante abbassamento dell'Australia stessa rispetto alle 
altre masse continentali. 

■ La regione degli Stati Uniti dove oggi si trova Denver, a 1600 
metri di quota, poggia su un rilievo di rocce marine. Nel corso 
del Cretaceo, l'area si abbassò di diverse centinaia di metri, 
favorendo la penetrazione delle acque oceaniche. 



In che modo il mantello dà forma alla superfìcie terrestre 



WkMBftlJ 



■j&mi&tBHisóUsiMsim 



^^■■P 



CONTINENTE IN ABBASSAMENTO 



LIVELLO DEL MARE1NAB8AS 



CROSTA CONTI NEHTALE 



ZONA DI SUBDUZIONE 

Una fossa nella quale 

una zolla tettonica 

si insinua al di sono 

di un'altra 



ZOLLA TETTONICA 



DORSALE MEDIO-OCEANICA 

Una frattura nel fondo 

oceanico the viene 

riempita da materiale 

del mantello via via 

che duezolletettoniehe 

si separano 



PERCHE I CONTINENTI 
SI ABBASSANO 

Un frammento di zolla tettonica 
andata in subduzione inizia 
a sprofondare nel mantello, 
ma rimane troppo freddo 
e denso per mescolarsi 
con la roccia circostante. 
Via via che il frammenta 
affonda, nella sua scia 
si genera un flusso di materiale 
verso il basso, che trascina con 
sé il continente sovrastante 



ZOLLA 

TETTONICA IN 

AFFONDAMENTO 



MANTELLO 

Uno strato di roccia 

caldissima che si estende 

dalla base delle zolle 

tettoniche fino al margine 

del nucleo metallico 

del pianeta 



PERCHE LA TERRA 
SI SOLLEVA 

Un superpennacchio, vale 
a dire una bolla di roccia 
caldissima e poco densa 
che prende origine dalla 
superfìcie esterna del nucleo, 
tende a risalire verso 
la superficie e così facendo 
spinge verso l'atto le masse 
continentali sovrastanti 



SDr'EitfaifWCCillD 



quindi un'anomalia positiva di gravità) vicino alla superi! 
eie. Al contrario, la gravità può essere inferiore sopra un 
materiale freddo e denso: via via che il materiale 
affonda, trascina con sé massa che si trovava vici- 
na alla superficie. Questo schema spiegava co- 
me mai i fantasmi delle zone di subduzione 
potessero generare una fascia di bassa gra- 
vitar parte di quel fondo marino freddo 
andato in subduzione e ancora in af- 
fondamento, trascinerebbe verso il 
basso materiale più vicino alla su- 
perficie. Se la spiegazione di Hager 
era corretta, il mantello non si li- 
mitava, presso la superfìcie, a spo- 
starsi in orizzontale: anche i suoi 
movimenti verticali ss estendevano 
fino a raggiungere la superficie. 

Continenti che fluttuano 

Proprio mentre Chase e Hager 
scoprivano un meccanismo che a- 
vrebbe potuto sollevare e abbassare la 
superficie terrestre, i geologi iniziavano a 
trovare riscontri per sollevamenti e abbassa 
menti, nel passato, di grandi masse continenta- 
li. Formazioni geologiche distribuite in tutto il globo 
recano prove delle fluttuazioni del livello del mare nel 
corso del tempo. Molti geologi pensavano che queste fluttuazio- 
ni avessero interessato tutti i continenti nello stesso modo, ma 
alcuni avanzavano prove convincenti del fatto che i cambiamen- 
ti più notevoli del livello del mare fossero stati provocati da mo- 
vimenti verticali dei continenti. Quando un continente si solleva- 
va - poniamo - relativamente alle altre terre emerse, la superficie 
dell'oceano attorno a quel continente si sarebbe abbassata, pur 
rimanendo invariata rispetto alle altre masse continentali. 

La maggior parte dei geologi, però, metteva in dubbio la pos- 
sibilità stessa del movimento verticale dei continenti, pur di fron- 
te alle prime tracce dei bizzarri «su e giù» dell'Australia raccolte 
all'inizio degli anni settanta. John J. Veevers, della Macquarie 
University di Sydney, esaminò affioramenti di antiche rocce nel- 
l'Australia orientale, scoprendo che circa 1 30 milioni di anni fa 
un mare poco profondo sommerse rapidamente quella metà del- 
l' Australia, mentre altri continenti furono invasi dalle acque assai 
più lentamente, fi livello del mare raggiunse il massimo attorno a 
quelle masse continentali circa 70 milioni di anni fa, ma a quel- 
l'epoca il mare era già in regressione rispetto alle coste dell'Au- 
stralia. In definitiva: la metà orientale del continente deve essersi 
abbassata per parecchie centinaia di metri relativamente alle al- 
tre masse continentali, per poi risalire prima ancora che incomin- 
ciasse ad abbassarsi il livello medio dei mari. 

Il quadro abbozzato da Veevers era solo una parte dell'enig- 
matica storia dell'Australia, Nel 1978 Gerard C. Bond, ora al La- 
mont-Doherty Earth Observatory della Columbia University, 
scopri una successione di eventi ancora più sorprendente men- 
tre ripassava la storia del pianeta in cerca di esempi di movi- 
menti continentali verticali. Dopo la risalita, l'Australia si abbas- 
sò nuovamente, questa volta di un centinaio di metri. Nessuna 
interpretazione basata solamente sulla tettonica delie zolle ba- 
stava a spiegare gli ampi movimenti verticali che Bond e Vee- 
vers avevano scoperto. Per trovare una spiegazione soddisfa- 
cente sarebbe stato necessario collegare le scoperte dei due geo- 
logi con la teoria di Hager secondo cui il mantello è in grado di 
cambiare la forma della superficie terrestre. 

Il primo passo significativo per comporre osservazioni e teoria 
fu fatto in seguito alla scoperta dì un altro esempio dì fluttuazio- 



92 




ROCCIA FREDDA 

(ABBASSAMENTO 

INDONESIANO] 



QUESTA MAPPA DEL MANTELLO è stata elaborata grazie alla misurazione di 
onde sismiche propagatesi attraverso ti pianeta. Le regioni dove la 
velocita delle onde sismiche è alta [in blu] corrispondono in genere a 
roccia relativamente fredda e densa; quelle dove le onde rallentano (in 
gioito) denotano roccia calda e meno densa. Al di sotto dell'Africa 
meridionale e dell'Atlantico meridionale si nota una tasca a velocità 
ridotta: una bolla di roccia relativamente calda che tende a risalire, il 1 
cosiddetto su pe (pennacchio africano. La mappa rivela anche freddo 
materiale in affondamento che «tira» in basso Nord America e Indonesia. 



I su e giù dell'Australia 



AUSTRALIA 



NUOVA GUINEA 



ZONAD! 
SUBDUZIONE 




130 MILIONI DI ANNI FA 

L'Australia è orlata da una zona di subduzione, una profonda 
fossa dove la zolla tettonica a est si inabissa nel mantello. La 
zolla in subduzione [in azzurro] trascina con sé verso il basso 
il mantello circostante e la parte orientale dell'Australia. Poi, 
la subduzione cessa e il continente va alla deriva verso est. 



LE SCIENZE 393 /maggio 2001 



ne tratto dalla ricognizione globale di Bond. Alla fine degli an- 
ni ottanta, questo lavoro ispirò Christopher Beaumont, della 
Dalhousie University in Nova Scotia, a intraprendere uno studio 
della regione di Denver, nel Colorado. Anche se la città si trova a 
oltre 1600 metri sul livello del mare, poggia su un ripiano di roc- 
ce marine indeformate originatesi da sedimenti di mare poco 
profondo nel corso del Cretaceo. All'epoca, vasti mari coprivano 
gran parte dei continenti, ma il livello medio marino non supe- 
rava di molto il centinaio di metri in più rispetto all'attuale. Ciò 
significa che l'oceano non poteva addentrarsi nel continente fi- 
no all'attuale posizione dì Denver, a meno che il continente stes- 
so non si fosse abbassato di parecchie centinaia di metri. 

Sulla base della posizione delle linee dì costa del Nord Ameri- 
ca durante il Cretaceo, Beaumont ha stimato che questo abbas- 
samento, e il successivo sollevamento fino alla quota attuale, 
debbano avere interessato un'area estesa per un migliaio di chi- 
lometri. Questa scala geografica era problematica per la visione 
prevalente, secondo la quale sarebbe stata la sola tettonica delle 
zolle a modellare la superficie. Il meccanismo della tettonica 
delle zolle permette movimenti verticali entro una distanza di 
meno di 200 chilometri dai margini di zolla. Ma il movimento 
del Nord America si estendeva per un migliaio di chilometri, ben 
oltre la portata dì una deformazione provocata da collisioni fra 
zolle. Pertanto occorreva ricercare un meccanismo diverso. 

Beaumont sapeva che lembi subdotti di antico fondo oceanico 
potrebbero trovarsi nel mantello sotto il continente, e che questi 
lembi potrebbero trascinare verso il basso il centro del continen- 
te. Per determinare se il flusso verso il basso del mantello possa 
avere causato l'abbassamento della regione di Denver, Beaumont 
iniziò a collaborare con Jerry Mitrovìca, allora studente all'Uni- 
versità di Toronto, e Gary T. Jarvis, della York University di To- 
ronto. Essi si resero conto che l'affondamento del Nord America 
nel corso del Cretaceo poteva essere stato causato dalla subdu- 
zione della zolla di Farallon nel mantello sotto la costa occiden- 
tale del Nord America. Basando la loro conclusione su un model- 
lo al computer, i tre ipotizzarono che l'antica zolla si fosse intro- 
dotta nel mantello quasi orizzontalmente. Iniziando ad affonda- 
re, essa esercitò un trascinamento verso il basso che abbassò il 



continente al punto che esso fu invaso dalle acque marine. 
Quando la zolla raggiunse una certa profondità, la sua capacità 
di trascinamento venne meno e la tendenza del continente a gal- 
leggiare ebbe la meglio, provocando un nuovo sollevamento. 

Quando i ricercatori proposero la loro teoria, nel 1989, la zol- 
la di Farallon si era inabissata da lunghissimo tempo nel man- 
tello, e la sua esistenza poteva essere solo dedotta da indizi geo- 
logici sul fondo del Pacifico, All'epoca, non esistevano immagi- 
ni sismiche di risoluzione sufficiente a mostrare una struttura 
piccola come un frammento di fondo oceanico in seno al man- 
tello. Nel 1 996, nuove immagini del mantello cambiarono tutto. 
Stephen P. Grand, dell'Università del Texas ad Austin, e Robert 
D. van der Hilst, del MIT, presentarono due immagini basate su 
raccolte diverse di dati sismici. Entrambe mostravano strutture 
pressoché identiche, e in particolare le correnti di trascinamento 
di parti fredde del mantello associate allo sprofondamento di 
lembi dì crosta oceanica. La zolla di Farallon, da lungo perduta, 
riappariva nelle immagini come una struttura arcuata di oltre 
1 500 chilometri sotto la costa orientale degli Stati Uniti. 

La connessione dei movimenti verticali del continente nord- 
americano con la subduzione del fondo oceanico offriva un le- 
game convincente tra le antiche variazioni di livello degli ocea- 
ni e i processi operanti nel mantello. Divenne altresì chiaro che 
l'antico lembo della zolla di Farallon ricadeva nella fascia a bas- 
sa gravità che Chase aveva osservato vent'anni prima. Io sospet- 
tavo che queste idee potessero essere applicate al più enigmatico 
dei movimenti continentali: quello dell'Australia durante e dopo 
il Cretaceo. Per 1 5 anni avevo simulato i processi di convezione 
nel mantello per mezzo dì modelli numerici, e molti dei miei ri- 
sultati indicavano che il mantello era in grado di sollevare la su- 
perfìcie terrestre di parecchie centinaia di metri, così da causare 
un abbassamento apparente del livello del mare. 

Come Chase, Veevers e altri prima di me, avevo ripercorso la 
storia della tettonica delle zolle in cerca di elementi che indicas- 
sero se qualcosa nel mantello poteva spiegare ì movimenti verti- 
cali dell'Australia. Ne! corso del Cretaceo, Australia, Sud Ameri- 
ca, Africa, India, Antartide e Nuova Zelanda erano aggregati nel 
supercontinente Gondwana, che aveva già 4O0 milioni dì anni di 



Un modello al computer rivela in che modo il «fantasma» di un'antica zona di subduzione abbia tirato verso il basso un continente. 



AUSTRALIA 



NUOVA GUINEA 



NUOVA 
^ ZELANDA 




90 MILIONI DI ANNI FA 

La metà orientale dell'Australia si abbassa di circa 300 metri 
sotto il livello del mare, via via che il continente transita sopra 
la zolla in affondamento. Circa 20 milioni di anni più tardi la 
trazione verso il basso viene meno, poiché la zolla è ormai scesa 
molto in profondità. Di conseguenza, il continente riemerge. 



OGGI 

L'Australia è a nord della sua posizione originaria, essendovi 
stata spinta dall'attività di zolle adiacenti (iniziata 45 milioni 
di anni fa]. Il continente si è abbassato rispetto ai suoi massimi 
storici, a causa di una trazione verso il basso che ha origine 
nel mantello sotto l'Indonesia (a sua volta in abbassamento). 



www.lesctenze.it 



93 



età quando incominciò a frammentarsi nelle masse continentali 
che conosciamo. Per gran parte di quel perìodo, il Gondwana era 
stato circondato da un'enorme zona di subduzione nella quale 
fredda crosta oceanica sì inabissava nel mantello. Pensai che in 
qualche modo la zona di subduzione che aveva circondato il 
Gondwana potesse avere causato gli alti e i bassi deir Australia. 
Me ne convinsi quando abbozzai le vecchie zone di subduzione 
su mappe delle antiche configurazioni di zolla realizzate da R. 
Dietmar Mùller, dell'Università di Sydney. Le ricostruzioni sem- 
bravano spiegare le stranezze australiane. Al tempo del proprio 
abbassamento, l'Australia sarebbe transitata direttamente sopra 
la vecchia zona di subduzione 
del Gondwana. 

Per capire in che modo il 
lembo di zolla si sarebbe com- 
portato nel mantello al fram- 
mentarsi del Gondwana, ab- 
biamo iniziato una collabora- 
zione con Louis Moresi della 
Commonwealth Sdentine and 
Industriai Research Organiza- 
tion di Perth per produrre una 
simulazione in grado di mo- 
strare l'influenza del mantello 
sull Australia nel corso de! 
tempo. Conoscevamo la posi- 
zione originaria dell'antica zo- 
na di subduzione, la storia dei 
movimenti orizzontali di zolla 
nella regione e le proprietà sti- 
mate del mantello sottostante: 
ii computer produsse uno sce- 
nario che si accordava con le 
nostre ipotesi in modo quasi 
perfetto. modello iniziava 
130 milioni di anni fa, con il 
fondo oceanico che si spinge- 
va sotto l'Australia orientale. Quando l'Australia si separò dal 
Gondwana, passò al di sopra del freddo lembo di crosta in 
affondamento, che risucchiò la zolla verso il basso. il continente 
si sollevò nuovamente, continuando la sua migrazione verso est 
e allontanandosi dalla zolla. 

Il nostro modello risolveva l'enigma del movimento verticale 
dell'Australia durante il Cretaceo, ma non sapevamo ancora 
spiegare il successivo riabbassamento del continente. Con l'aiu- 
to di Carolina Lithgow-Bertelloni, ora all'Università del Michi- 
gan, confermammo l'osservazione di Bond secondo cui l'Au- 
stralia, spostandosi verso nord a partire dalla fine del Cretaceo, 
sarebbe sprofondata nuovamente di oltre un centinaio di metri. 
D modello globale del mantello della Lithgow-Bertelloni. che 
comprende la storia della subduzione, suggerisce che l'Indonesia 
subisca un risucchio verso il basso superiore a quello di ogni al- 
tra regione, per il fatto di trovarsi all'intersezione di enormi si- 
stemi di subduzione attuali negli oceani Indiano e Pacifico. E via 
via che si abbassa, l'Indonesia trascinerebbe con sé anche i'Au- 
straìia. Attualmente l'Indonesia è un continente sommerso: solo 
la sua parte più elevata emerge sopra il livello del mare. 




LE MONTAGNE DEL DRAKENS9ERG, in Lesotho, in un'immagine da satellite 
L'Africa meridionale è uno dei plateau più estesi del globo. 



Tutto questo ci riporta all'Africa. In un certo senso, Indonesia 
e Africa sono in situazioni opposte: la prima subisce un trasci- 
namento verso il basso mentre la seconda è sottoposta a una 
spinta verso l'alto. Questi e altri cambiamenti che si sono svolti 
nelle ultime centinaia di milioni di anni sono legati alla storia 
del Gondwana. L'immensa fascia a bassa gravità che Chase sco- 
pri 30 anni fa è generata dai lembi ancora in affondamento di 
un'enorme zona di subduzione che un tempo circondava il su- 
percontinente australe. AI centro del Gondwana si trovava quel- 
la che oggi è l'Africa meridionale, e ciò significa che il mantello 
sotto questa regione era isolato dagli effetti dì raffreddamento 

comportati dal l'affonda mento 
delle zolle crostali ai margini 
del supercontìnente stesso. A 
lungo termine, questa assenza 
di un movimento verso il bas- 
so in grado di indurre raffred- 
damento si è tradotta nella 
presenza di un superpennac- 
chio caldo in risalita dalle 
profondità del mantello. 

Grazie a queste scoperte, i 
ricercatori iniziano a rendersi 
conto che questi movimenti 
sono in grado di dare forma 
alla superficie terrestre attra- 
verso più di una modalità. Es- 
si provocano gli spostamenti 
orizzontali delle zolle, ma pos- 
sono anche provocare il sol- 
levamento o l'abbassamento 
delle masse continentali. Forse 
ia scoperta più interessante è 
che i movimenti nel mantello 
profondo ritardano Io sposta- 
mento orizzontale delle zolle: 
le posizioni degli antichi mar- 
gini possono ancora avere un effetto sulla forma della superficie 
a milioni di anni di distanza. 

La nostra capacità di osservare la dinamica della convezione 
nel mantello e quella della tettonica delie zolle avrà una rapida 
espansione quando saranno disponibili nuovi metodi di osserva- 
zione dei mantello e nuove tecniche per simularne i movimenti. 
Quando cambia la convezione nel mantello, varia anche il cam- 
po gravitazionale terrestre. La ricostruzione delle variazioni del 
campo gravitazionale fa parte dei compiti di una missione spa- 
ziale congiunta tedesco-statunitense, GRACE, programmata per 
il giugno prossimo. Due satelliti in orbita terrestre mapperanno le 
variazioni della gravità ogni due settimane, permettendo forse di 
risalire al lento flusso verticale associato alla convezione nel 
mantello; anche immagini sismiche a maggiore risoluzione svol- 
geranno un ruolo chiave nel definirne l'attuale aspetto. Nel corso 
del progetto USArray, 400 sìsmometri mobili forniranno una ri- 
soluzione di circa 80 chilometri nei 1300 chilometri superiori del 
mantello al di sotto degli Stati Uniti. Questi progetti lasciano pre- 
vedere un futuro straordinario per quanto riguarda le possibilità 
di chiarire la dinamica dell'interno della Terra. 



BIBLIOGRAFIA 



GURNIS MICHAEL, MULLER R. DIETMAR e MOfiESI LOUIS, Dynamics qf 
Cretaceous Venicat Merton af Australia and the Ausualìan-Antarctic 
Discordance, in «Science», 2?9, pp. 1499-1 504, G marzo 1998. 
DAVIES GEQFFREY F„ Dynamic £arth: Ptates, Plumes and Mantle Con- 
vectian, Cambridge University Press, 2000. 



GURNIS MICHAEL, MITR0V1CA JERRYX, RITSEMA JEROEN e VAN 
HEI JST HENDRIK-JAN, Constraining Mantle Density Strutture Using 
Geologico I Evidence ofSurface Upiìft Rates: The Case oftheAfrican 
Superplume, in «Geochemistry, Geophystcs, Geosystems», 1, 
2000. 



94 



LE SCIENZE 393 /maggio 2001 



Materiali 



ELETTRONICI 

eTECNO 

per l'informazione 



di Gianfranco Pacchioni 



I Nobel per la fisica e la chimica 
del 2000 sono stati assegnati 
per ricerche che hanno portato 
la microelettronica agli attuali 
livelli; ma oggi occorre potenziare 
la ricerca sui nuovi materiali 



96 



Un importante quotidiano statunitense ha 
chiesto di recente ad alcuni esperti quale 
fosse, a loro giudizio, la più rivoluzionaria 
scoperta dell'ultimo millennio. La risposta 
unanime è stata l'invenzione della stampa. 
La ragione è chiara. Solo dopo l'introduzio- 
ne della stampa a caratteri mobili il sapere, 
sino ad allora circoscritto alle inaccessibili biblioteche dei 
monasteri e affidato alle cure dei monaci amanuensi, si è 
diffuso a strati sempre più ampi della popolazione, con la 
conseguenza che la conoscenza e l'innovazione sono cre- 
sciute con una velocità sempre maggiore: oggi si calcola 
che la quantità globale di informazione raddoppi circa ogni 
cinque anni. Pochi però si sono soffermati sul fatto che an- 
che l'invenzione della stampa è a sua volta basata su un'al- 
tra tecnologia, quella per produrre la carta, materiale es- 
senziale per conservare l'informazione stampata. Si ritiene 
che l'invenzione della carta vada fatta risalire a Ts'ai Lun, 
che ne introdusse l'uso in Cina nel 105 d.C. Decorre atten- 
dere però quasi mille anni prima che la tecnica si diffonda 
in Asia, Persia, Egitto, Marocco e finalmente anche in Euro- 
pa. La carta è quindi un materiale maturo, sul cui uso pog- 
gia gran parte dello sviluppo della civiltà moderna. 

LE SCIENZE 393 /maggio 2001 




www.lescienze.it 



9? 



Se la carta e la stampa hanno cambiato il corso della storia, 
un'altra rivoluzione, la cui portata è solo intuibile a! momento, 
sta avvenendo sotto i nostri occhi. Questa è la rivoluzione le- 
gata all'introduzione delle nuove tecnologie dell'informazione, 
e-economy, e-business, e-mail, e-book, e-banking sono con- 
cetti che fino a pochi anni fa nemmeno potevamo immaginare, 
mentre oggi sono già entrati prepotentemente nella nostra vita. 

Come la stampa non sarebbe slata possìbile senza la carta, co- 
sì Internet, telefoni cellulari, comunicazioni in fibra ottica non 
sarebbero possibili senza quelli che sono oggi chiamati ì materia- 
li elettronici. Tanto che l'Accademia delle scienze di Svezia ha 
voluto riconoscere il ruolo della scienza dei materiali assegnando 
il premio Nobel 2000 sia per la chimica sia per la fìsica a ricerca- 
tori che si erano distinti in questo settore. II premio per la chimi- 
ca è andato ad Alan J. Heeger, Alan G. MacDiarmid e Hideki Shi- 
rakawa «perla scoperta e !o sviluppo di polimeri conduttori»; in 
fisica sono stati premiati Zhores I. Alferov ^___^__ 

e Herbert Kroemer «per lo sviluppo di se- 
miconduttori a eterostrutture usati in op- 
toelettronica» e Jack S. Kilby «per l'inven- 
zione del circuito integrato». 

L'era del transistor 

L'era elettronica è nata nel 1947 con § 
l'invenzione del transistor da parte di | 
John Bardeen, Walter Brattain e William | 
Schockley, che per questo furono insigni- J 
ti del premio Nobel nel 1956; solo alla fi- 1 
ne degli anni cinquanta, però. Jack Kilby I 
e Robert Noyce inventarono in modo in- 
dipendente il circuito integrato. Questo consiste nella realizza- 
zione di tutti i componenti elettronici - transistor, resistenze, 
condensatori - in un unico blocco di materiale semiconduttore. 
Più che una scoperta in fìsica, questa può essere considerata 
un'invenzione, ma d'altra parte la sua realizzazione ha richiesto 
di risolvere numerosi problemi di fisica dello stato solido. 

Nel I960, poco dopo l'invenzione del circuito integrato, 
Gordon Moore - uno dei pionieri della Silicon Valley - formulò 
la regola empirica che ha preso il suo nome: la legge di Moore 
stabilisce che le prestazioni di un chip, e quindi il numero dei 
componenti che vi possono essere integrati, sarebbero raddop- 
piate ogni 18-24 mesi mantenendo invariato il costo. Qua- 
rant'anni dopo, la legge di Moore è ancora valida, e le presta- 
zioni continuano a raddoppiare. 

Ma fino a quando? Per dare un'idea della complessità del 
problema basti pensare che le attuali tecnologie permettono di 
far crescere cristalli di silicio di 30 centimetri di diametro con 
un numero di impurezze dell'ordine di una parte per miliardo. 
È un po' come voler identificare rutti gli abitanti della Terra 
con un massimo di cinque o sei errori... Ciò fa sì che i costi di 
produzione siano cresciuti col tempo. Nel 1995 il costo di un 
impianto di produzione era di un miliardo di dollari, circa l'I 
percento del mercato mondiale dei microprocessori. Ne) 2010 
si stima che il costo sarà di 30-50 miliardi di dollari, più del IO 
per cento del mercato stimato per quell'anno. 

Una prima deviazione dalla legge di Moore potrebbe quindi 
nascere dagli enormi costi di produzione. Attenzione però: si 
parla di costi per chip. Sempre nel 2010, il costo per singolo tran- 
sistor continuerà a diminuire, dagli attuali 0,2 centomillesimi di 
dollaro a 2 milionesimi di dollaro, per via della continua minia- 
turizzazione e del crescente numero di transistor per centimetro 
quadrato: dai 1000 del 1970, ai milione del 1990 ai circa 90 mi- 
lioni nel 2010. Ma proprio la spinta verso strutture di dimensioni 
sempre più ridotte, nanometriche, rappresenta il secondo lìmite 
alla continua crescita nelle prestazioni dei microprocessori. 





IL PRIMO CIRCUITO 
INTEGRATO, creato da 
Jack Kilby nel 1959 
perla Texas 
Instnjments.ela 
prima calcolatrice 
tascabile, brevettata 
nel 196? dalla stessa 
società e realizzata 
dallo stessa Kilby, in 
collaborazione con 
Jemj Merryman 
e Jìm VanTassel, 



La ricerca sui materiali 
innovativi in Italia 

Il nostro paese vanta realtà industriali di punta nel settore 
delle tecnologie informatiche, soprattutto nel campo dei 
semiconduttori e delle fibre ottiche. La ricerca italiana sui 
solidi e sui materiali, grazie a organismi come l'Istituto 
nazionale perla fìsica della materia, l'INFM, o il Consorzio 
interuniversitario nazionale per la scienza e la tecnologia dei 
materiali, l'INSTM, ha un importante ruolo a livello 
internazionale con punte di eccellenza. A livello accademico, 
per rispondere alla crescente richiesta di innovazione e di 
interdisciplinarità, sono stati creati indirizzi o addirittura 
corsi di laurea nel settore dei materiali innovativi. Purtroppo, 
la a relazione tra ricerca, sviluppo tecnologico e progresso 
economico è assai poco percepita in Italia, dove assistiamo 
a una crisi di «vocazioni» in discipline come fisica, chimica, 
o scienza dei materiali. La «fuga» dalle scienze esatte verso 
tipi di istruzione che offrono profili meno professionali è un 
serio motivo di preoccupazione. Il rischio è che tra qualche 
anno non ci siano abbastanza specialisti per coprire le 
esigenze produttive, e che le realtà industriali italiane, oggi 
competitive sul mercato internazionale, non trovino il 
personale tecnico necessario per sostenere l'innovazione. 
Sulle tecnologie dell'informazione si giocherà una 
gigantesca partita tra le economìe dei paesi industrializzati. 
Assistervi passivamente sarebbe un atteggiamento miope 
per un paese che voglia dirsi avanzato. 



98 



LE SCIENZE 393 /maggio 2001 




Comare gli elettroni 



Uno dei maggiori progressi nella produzione di transistor è 
stata l'introduzione della tecnologia del silicio. Il primo transi- 
stor, infatti, era a base di germanio. L'importanza di questo ele- 
mento risiede anche nel fatto che il suo ossido naturale, otte- 
nuto per semplice ossidazione del silicio atomico, risulta essere 
un isolante quasi perfetto, rappresentando così un componente 
ideale de! transìstor. La crescente miniaturizzazione ha portato 
a Bina di ossido dì silicio talmente sottili che nelle prossime ge- 
nerazioni di microprocessori la funzione isolante risulterà 
compromessa. 

Al di sotto di uno spessore dì 1,5 nanometri infatti, corri- 
spondente a pochi strati atomici, effetti di tunnel diretto degli 
elettroni tra gli elettrodi renderanno inutilizzabile il dispositi- 
vo. Oggi l'industria microelettronica è fortemente impegnata 
nella ricerca di materiali dotati di un'elevata costante dielettri- 
ca che possano sostituire l'ossido di silicio, una sfida aperta a 
cui, per il momento, non si vede soluzione. Oltre a problemi le- 
gati all'identificazione dì nuovi materiali in grado di consenti- 
re dimensionali tà più basse, ne esistono altri di tipo più fonda- 
mentale. Nel 2010 ì singoli transistor saranno selezionati In 
posizione on o Oj(f semplicemente per aggiunta o rimozione di 
appena otto elettroni sul gate del transistor, confrontati con i 
circa 1000 attuali. Si tratta di numeri infinitesimi, così piccoli 
che le fluttuazioni statistiche diverranno tanto significative da 
compromettere seriamente la possibilità di distinguere gli da- 
gli 1 - ovvero gli elementi fondamentali del calcolo - nel dr- 
enilo digitale. 

Per tutte queste ragioni si guarda oggi con interesse a nuove 
vie per produrre dispositivi per la microelertronica basati su 
processi e materiali completamente diversi. Tra questi sono 
considerati molto promettenti i materiali organici polimerici: 
transistor «di plastica». La Philips ha già realizzato un transistor 
in cui i tre elettrodi sono in polianilina, il semiconduttore è po- 




L0SSI00 DI SILICIO e 

un eccellente isolante, 

caratteristica che 

ne ha fatto 

un componente 

fondamentale 

dei transistor. Quia 

Fianco, un difetto 

strutturale 

all'interfaccia 

si Ile io/ossi de di silicio 

in un transistor. 



IN PILLOLE 



■ I premi Nobel per la fìsica e perla chimica dello scorso anno 
sono stati assegnati per ricerche che hanno condotto 
l'industria elettronica ai progressi che oggi permettono 
un'estrema miniaturizzazione dei componenti. 

■ Presto l'ossido di silìcio, un isolante quasi perfetto, non sarà 
più in grado di garantire prestazioni soddisfacenti nei 
dispositivi elettronici, a causa dell'eccessiva riduzione dei 
componenti; perciò è necessario indirizzarsi su nuovi materiali. 

■ Oggi è possibile produrre polimeri conduttori a prezzi 
relativamente contenuti, il che ha fatto ipotizzare una loro 
applicazione in circuiti integrati. La Philips ha già brevettato un 
transistor costituito completamente da polimeri organici. 

■ L'aumento della velocità di elaborazione richiederà anche 
migliori supporti di memoria, come i nuovi materiali magnetici in 
grado di immagazzinare un terabit per centimetro quadrato . 



www.lescienze.it 



99 




litienilenvinilene e l'isolante è polìvinilfenolo, il tutto su un 
supporto poi iam midi co. È stata anche dimostrata la possibilità 
di realizzare circuiti integrati costituiti completamente da ma- 
teriali polimerici. Ed è in questo senso che va letta l'attribuzio- 
ne del Nobel per la chimica dello scorso anno alla scoperta dei 
polimeri conduttori. 

L'avvento dei polimeri 

li poliacetilene era già noto con il suggestivo nome di «pol- 
vere nera» prima degli anni settanta. Si tratta del prodotto di 
polimerizzazione dell'acetilene, C^. Nel 1974 il chimico giap- 
ponese Hideki Shirakawa scopri che era possibile sintetizzare il 
poliacetilene controllando la formazione delle due strutture 
isomeriche cis- e trans- mediante l'uso di catalizzatori. Una 
volta che, pare per errore, venne aggiunta una quantità di ca- 
talizzatore 1000 volte superiore al normale, fece la sua com- 
parsa un film dalia tipica lucentezza metallica dell'argento. 

Heeger e MacDìarmid dimostrarono, poco tempo dopo, che 
ossidando la sottile pellicola - ovvero «drogandola», in termini 
tecnici - la sua conducibilità cresceva di un miliardo di volte. 
Insomma, la conducibilità elettrica del poliacetilene drogato ri- 
sulta di solo 1000 volte inferiore a quella del rame comune- 
mente usato per il traspone dell'elettricità, tanto che per questa 
nuova classe di polimeri conduttori è stata coniata l'espressio- 
ne dì «metalli sintetici». 

La possibilità di produrre polimeri conduttori economici, 
trasparenti e flessibili ha ispirato visioni di potenziali applica- 
zioni in circuiti integrati, muscoli artificiali, schermi lumine- 
scenti. Questi ultimi, ì cosiddetti LED, tight emittìng diade, han- 
no già numerosissime applicazioni, dai visori dei telefoni cellu- 
lari a praticamente tutti i dispositivi luminosi degli elettrodo- 
mestici o degli apparecchi per automazione da ufficio. Questi 
dispositivi sfruttano il fenomeno della elettroluminescenza, 
emissione di luce stimolata in un materiale sottoposto a una 



LA STRUTTURA DEL 
POLIETILÈNE, uno dei 
materiali polimerici 
più diffusi, scoperto 
nel 1939 presso le 
Imperiai Chemical 
Industries, in Gran 
Bretagna. Qui sotto, 
un display 
sperimentale a LEO 
installato 
su un'automobile. 
A destra, formazioni 
di cristalli polimerici. 



differenza di potenziale. Un LED è costituito da un film sottile 
di materiale organico o inorganico disposto a sandwich tra due 
elettrodi, di solito un metallo che funge da catodo e un vetro 
trasparente conduttore dì tipo inorganico - come l'ossido di in- 
dio e stagno - che funziona da anodo. 

La tecnologia dei LED è progredita a tal punto che oggi essi 
sembrano offrire una valida alternativa ai fosfori, i dispositivi 
luminescenti inorganici su cui sono basali gli attuali schermi 
televisivi, ma anche ai dispositivi a cristalli liquidi. I primi di- 
splay a LED sono stati introdotti tre anni fa, ma si ritiene che 
essi sostituiranno presto gli schermi convenzionali. Certo, re- 
stano ancora da risolvere molti problemi, tanto che il mercato 
degli schermi piarti e dei grandi schermi televisivi è oggi domi- 
nato da almeno altre due tecnologie oltre a quella già citata dei 
LED: la tecnologìa ai plasma e quella a cristalli liquidi in matri- 
ce attiva. Entrambe queste tecnologie comunque implicano 
processi complicati e costi di produzione elevati. La via per 



ÌOO 



LE SCIENZE 393 /maggio 2001 




l'impiego di materiali organici - in vista di una sostituzione 
delle attuali tecnologie microelettroniche - è ancora lunga, ma 
vi sono pochi dubbi sul fatto che questa sia una delle strade 
più promettenti. 

Le autostrade dell'informazione 

Nelle moderne tecnologie informatiche, un ruolo importantis- 
simo lo svolgono ovviamente i sistemi di trasporto dell'informa- 
zione. L'uso di Internet si estenderà presto a un miliardo di uten- 
ti e masse sempre più grandi di dati viaggeranno sulle reti. 

11 trasporto dell'informazione si basa sulla traduzione dì 
qualsiasi testo, figura, o segnale analogico in un segnale digi- 
tale, fatto di e 1, e nella sua trasmissione a velocità prossime 
a quelle della luce lungo particolari canali, le fibre ottiche. Il 
messaggio è scomposto in una serie di impulsi luminosi gene- 
rati da un laser e viaggia nella fibra, un filo dì vetro purissimo 
dello spessore di un capello. Oggi questi segnali sono generati 
da laser a semiconduttore basati su eterostrutture, e proprio a 
questa scoperta è andata la seconda metà del Nobel per la fisi- 
ca. Nel 1963 Z. Alferov, dell'Accademia delle scienze di Lenin- 
grado, e H. Kroemer, allora alla Varian di Palo Alto, sviluppa- 
rono indipendentemente un laser a eterostruttura. Questo è 
fatto di numerosi strati sottilissimi di materiali semiconduttori 
con diverso gap (li banda. Tanto per dare un'idea, un laser a 
luce blu dove lo strato attivo è basato su nitruro di ìndio e gai- 



L'AUTORE 



GIANFRANCO PACCHIONI è ordinario di chimica dello stato solido 
all'Università di Milano-Bicocca, dove dirige la Scuola dì specializ- 
zazione in scienza e tecnologia dei materiali. Ha lavorato a Berìì- 
no, a Monaco e all'IBM dì Almaden. È autore di circa 200 lavori sul- 
le proprietà elettroniche di superfìci e materiali inorganici. 



Ho, consiste di ben 743 strati diversi di spessore dell'ordine di 
50-100 micrometri, milionesimi di metro. Oggi si produco- 
no centinaia di milioni di laser dì questo tipo ogni anno. La 
maggior parte di essi viene utilizzata nei lettori di CD, ma i la- 
ser per telecomunicazioni rappresentano la parte a più alto va- 
lore aggiunto. 

Come sarà quindi il futuro nella tecnologìa dell'informazio- 
ne? A breve termine. 10-12 anni, è prevedibile che la velocità 
delle operazioni continuerà ad aumentare. I microprocessori 
operano oggi alla frequenza di 1 gigahertz, ma la ricerca punta 
a frequenze un milione di volte superiori, verso una velocità di 
elaborazione di un petallop, pari a IO' 4 operazioni al secondo. 
Anche la frequenza di trasmissione dell'informazione e la 
quantità di informazione immagazzinata cresceranno. Già si 
parla di nuovi materiali magnetici in grado di memorizzare un 
terabìt {\Q U bit) per centimetro quadrato e non è escluso di 
raggiungere tra una decina d'anni il petabit (10 ,s bit] per centi- 
metro quadrato. 

Ovviamente tutto ciò non è affatto scontato, e soltanto la 
capacità di risolvere i giganteschi problemi che sono alla base 
di queste tecnologie potrà permettere gli sviluppi auspicati. 
Come la carta è stata il supporto su cui si è fondata la rivolu- 
zione della stampa, cosi materiali di nuova concezione sono 
alla base della rivoluzione informatica. La sfida per il futuro è 
apena, e immaginare oggi quali strade prenderà è, più che dif- 
ficile, incauto. 



BIBLIOGRAFIA 



CAMPBELL DEAN ±, LORENZ JULIE K. e altri, The Computer as a 

Material Science Benchmark, in «Journal of Chemical Educa- 

rion»,?5,pp.29?-311„1998. 

PACCHIONI GIANFRANCO (a cura], Nuovi materiati, «Le Scienze 

quaderni» n. 115, settembre 2000. 



www.lescienze.it 



IDI 




Che cosa non va in questa 




Gli psicologi usano di frequente il famoso 

test delle macchie di Rorschach 

e altri strumenti analoghi per studiare 

la personalità e le malattie mentali. 

Ma le ricerche mostrano che questi 

strumenti si rivelano spesso inefficaci 



di Scott 0, Lilienfeld, James M.Wood e Howard N. Garb 
Fotografìe di Jelie Wagenaar 



www.lescienze.it 



105 



Che cosa fareste se vi venisse chiesto di de- 
scrivere le immagini che vedete in una 
macchia di inchiostro o di inventare una 
storia a partire da una figura ambigua - per 
esempio, quella in cui si vede un uomo di 
mezza età che distoglie lo sguardo da una 
donna che lo prende per un braccio? Per 
compiacenza, ricorrereste alle vostre emozioni, esperien- 
ze, memorie e immaginazioni, In breve, vi proiettereste in 
quelle immagini. A questo punto, stando a numerosi psico- 
logi, un valutatore ben addestrato potrebbe sondare le vo- 
stre fantasticherie pertrarre conclusioni sui tratti della vo- 
stra personalità, sui vostri bisogni inconsci e in generale 
sulla vostra salute mentale. Ma queste conclusioni sareb- 
bero corrette? La risposta è importante perché spesso gli 
psicologi fanno rientrare questi strumenti «proiettivi» 
[che utilizzano la presentazione di immagini, parole o og- 
getti ambigui) nella valutazione delle condizioni mentali, 



e perché i risultati possono incidere profondamente sulla vita 
dei soggetti. Gli strumenti, per esempio, servono a diagnosti- 
care malattie mentali, a prevedere la pericolosità di carcerati a 
cui deve essere concessa la libertà condizionata, a valutare la 
stabilità mentale dì genitori in lite sulla custodia dei figli, e a 
capire le eventuali molestie sessuali subite da bambini. 

Abbiamo di recente esaminato una grande quantità di ricer- 
che sull'efficacia dei metodi proiettivi, concentrando l'atten- 
zione su tre degli strumenti più usati e meglio studiati. Nel 
complesso, le nostre scoperte sono inquietanti. 

Farfalla o bisonte? 

Il famoso test proposto negli anni venti dallo psichiatra 
svizzero Hermann Rorschach - nel quale si chiede ai soggetti 
in esame di descrivere ciò che vedono in una serie di dieci 
macchie d'inchiostro - è il più popolare tra i metodi proiettivi 
ed è somministrato ogni anno a centinaia di migliaia, o forse 
milioni, di persone. I commenti che seguono si riferiscono alla 
moderna versione modificata, non a quella originale. 

La versione originale venne messa duramente in discussio- 
ne negli anni cinquanta e sessanta, in buona parte per la man- 
canza di procedure standardizzate e di un insieme di norme 
(risultati medi ricavati dalla popolazione in generale). La stan- 



La figura imperfetta 

Il test di appercezione tematica (ThematicApperceptionTest, 
TAT), ideato negli anni trenta dallo psichiatra Henry Murray 
della Harvard University e dalla sua studentessa Christiana 
Morgan, è uno degli strumenti proiettivi più utilizzati. Gli 
esaminatori presentano ai soggetti in esame un sottoinsieme 
[di solito da cinque a 12] di 31 carte in cui sono rappresentate 
situazioni ambigue, nella maggior parte dei casi con figure 
umane. 1 soggetti devono costruire un racconto a partire da 
queste immagini, descrivendo gli eventi che accadono, ciò che 
li ha provocati, quello che i personaggi pensano e sentono e ciò 
che accadrà in seguito. Sono utilizzate molte varianti del TAT, 
come il test di appercezione per bambini, in cui si vedono 
animali che interagiscono in situazioni ambigue, e il test di 
Blacky, che si basa sulle avventure di un cane nero e della 
sua famiglia. 

Gli psicologi interpretano in vario modo le risposte al TAT. Un 
metodo promettente • elaborato dallo psicologo DrewWesten 
della Boston University - si affida a un particolare sistema di 
valutazione per stabilire la percezione che la gente ha degli 
altri [«relazioni oggettuali»). Secondo questo metodo, se 
qualcuno, osservando l'immagine della fotografia qui a destra, 
inventa una storia in cui un'anziana signora trama contro un 
giovane, si dovrebbe dedurre che il soggetto tende a vedere 
malevolenza negli altri - ma solo se temi analoghi emergono 
nei racconti inventati per altre carte. 

Ma gli studi ci dicono che la maggior parte dei professionisti 
non usa metodi di valutazione sistematici per interpretare i 
racconti del TAT, e si affida piuttosto alle proprie intuizioni. 
Purtroppo, le ricerche mostrano che queste interpretazioni 
«Impressionistiche» del TAT sono di dubbia validità e possono 
rendere il TAT un esercizio proiettivo tanto per l'esaminatore 
quanto per l'esaminato. 




dardizzazione è importante perché differenze apparentemente 
banali nel metodo di somministrazione del test possono influi- 
re sulle risposte al test stesso. Le norme forniscono un punto di 
riferimento per stabilire quando le risposte di qualcuno cadono 
al di fuori di un intervallo accettabile. 

Negli anni settanta, John E. Exner, Jr„ allora all'Università 
di Long Island, affrontò con rigore quei problemi introducen- 
do il «sistema comprensivo». Si trattava di un insieme di istru- 
zioni che stabiliva regole dettagliate per l'effettuazione del te- 
st e per l'interpretazione delle risposte, e forniva norme per i 
bambini e per gli adulti. 

A dispetto della sua attuale popolarità, il sistema compren- 
sivo inciampa su due importanti criteri che risultavano già 
prohlematici per il Rorschach originale: l'affidabilità nella va- 
lutazione e la validità. Uno strumento affidabile nella valuta- 
zione porta a risultati analoghi indipendentemente da chi va- 
luta e tabula le risposte. Una tecnica è valida se misura ciò che 
intende misurare: i suoi risultati sono coerenti con quelli pro- 
dotti da altri strumenti validi o sono in grado di prevedere il 
comportamento, oppure entrambe le cose. 

Per capire i difetti del Rorschach a proposito della valuta- 
zione, serve sapere qualcosa sul modo in cui si interpretano le 
risposte date di fronte alle macchie di inchiostro. Per prima co- 
sa, uno psicologo classifica le reazioni tenendo conto di più di 
100 caratteristiche, o variabili. 11 valutatore, per esempio, regi- 
stra se la persona ha osservato le macchie nella loro interezza 
o solo delle parti, annota se le figure viste erano inconsuete o 
tipiche di chi si sottopone al test, e indica quali aspetti delle 
chiazze di inchiostro (per esempio forma o colore) hanno con- 
tribuito maggiormente a determinare la risposta. Poi, sulla 
scorta dei risultati, compila un profilo psicologico del sogget- 
to. In questo processo interpretativo gli psicologi potrebbero 
arrivare alla conclusione che l'attenzione ai dettagli (come le 
piccole chiazze isolate) invece che alle immagini intere, segna- 
li ossessività in un paziente, e che vedere qualcosa negli spazi 
bianchi tra le macchie metta in luce una vena negativa, ostile. 

Perché l'attribuzione di un valutazione a ciascuna variabile 
sia considerata affidabile, dovrebbe esserci un'elevata probabi- 
lità che due psicologi diano valutazioni analoghe dì una per- 
sona data. Recenti studi, invece, dimostrano che la concordan- 
za è forte solo per circa metà delle caratteristiche esaminate da 
chi valuta le risposte al Rorschach; per le altre variabili, gli 
esaminatori potrebbero dare valutazioni molto differenti. 

Altrettanto sconcertante è il fatto che le analisi indichino 
l'inefficacia del Rorschach nell'individua re molte condizioni 
psichiatriche, con l'eccezione della schizofrenia e di altri di- 
sturbi contraddistinti da disordine nel pensiero, come 11 distur- 
bo bipolare (o depressione maniacale). Il metodo non indivi- 
dua in modo costante depressione, ansia o personalità psico- 
patica (una condizione caratterizzata da disonestà, insensibi- 
lità e assenza di sensi di colpa). Inoltre, per quanto gli psicolo- 
gi somministrino spesso il Rorschach per stabilire la propen- 



GLI AUTORI 



SCOTT 0. LILIENFELD, JAMES M. WOOD e HOWARD N. GARB si oc- 
cupano di ricerche sui test psicologici di valutazione. Lilienfeld 
e Wood insegnano rispettivamente presso i Dipartimenti di 
psicologia della Emory University e della Università del Texas a 
El Paso. Recentemente hanno collaborato a una estesa meta- 
ricerca sui metodi proiettivi. Garb è psicologo clinico della Pitt- 
sburgh Veterans Administration Health Care System e della 
Università di Pittsburgh. È autore del libro Studying the Clini- 
cian;Judgmenx Research and PsychologicalAssessment 



TESLLURLTRSCHACH 




Inchiostro sprecato? 

«Mi sembrano 
due dinosauri 
con teste enormi 
e corpi 
minuscoli. Si 
Stanno 
allontanando 
l'uno dall'altro, 
ma guardano 
indietro. La 
piccola macchia 
nera al centro mi 
ricorda 
un'astronave.» 

Un tempo definito «i raggi X della mente», il test di 
Rorschach delle macchie d'inchiostro rimane la più 
famosa - e anche famigerata -tecnica psicologica 
proiettiva. Un esaminatore porge 10 tavole che riportano 
macchie d'inchiostro simmetriche, una alla volta secondo 
un ordine prestabilito, a un soggetto che deve riferire che 
cosa gli ricordano quelle macchie. Cinque sono colorate, 
cinque sono in bianco e nero. Le immagini possono essere 
ruotate. Quella che si vede qui sopra è la versione invertita 
di un'opera di Andy Warhol: delle macchie d'inchiostro che 
vengono realmente utilizzate nei test, infatti, è vietata la 
pubblicazione. 

Secondo quanto si pretende, Se risposte alle macchie 
d'inchiostro rivelerebbero aspetti della personalità e della 
salute mentale di una persona. I fautori di questa tecnica, 
per esempio, ritengono che il riferimento ad animali in 
movimento • come i dinosauri citati qui sopra - indichi 
spesso impulsività, mentre le allusioni a chiazze nere 
isolate - come nel caso dell'astronave - stiano spesso a 
indicare depressione. 

Lo psichiatra svizzero Hermann Rorschach prese 
probabilmente l'idea delle macchie d'inchiostro da un 
gioco di società europeo. Il test fu applicato la prima volta 
nel 1921 e raggiunse un grande prestigio a partire dal 
194S. Ma già negli anni cinquanta ci fu una prima reazione 
crìtica, quando 1 ricercatori scoprirono che spesso gli 
psicologi interpretavano in modo diverso le stesse 
risposte e che non vi era esatta corrispondenza tra 
particolari risposte e specìfiche malattie mentali o tratti 
della personalità. 

Attualmente, il sistema comprensivo, messo a punto 
con l'intento dì porre rimedio a tali evidenti 
manchevolezze, è ampiamente utilizzato per valutare e 
interpretare le risposte al test delle macchie di Rorschach. 
Ma anch'esso ha subito critiche dello stesso tipo. Inoltre, 
numerosi dati recenti indicano che il sistema comprensivo 
classifica erroneamente come patologici numerosi 
soggetti normali. 



106 



LE SCIENZE 393/maggio20ul 



www.lescienze.it 



IO? 



sione alla violenza, all'impulsività e al comportamento crimi- 
nale, le ricerche fanno ritenere che nemmeno per questi obiet- 
tivi il test sia valido. Analogamente, non c'è alcune prava dei- 
la sua efficacia nell'individuare gli abusi sessuali ne 1 bambini 
nei distinguere la salute mentale dalla malattia, facendo er- 
roneamente ritenere disadattati molti individui. Per esempio, 
in uno studio dei 1999 condotto su 123 donatori di sangue 
della California sottoposti al test, uno su sei ottenne un re- 
sponso di schizofrenia. I risultati tratti dalle macchie d'inchio- 
stro sono forse ancora più fuorviami per le minoranze. Nume- 
rose ricerche hanno mostrato che le valutazioni degli afroame- 
ricani, dei nativi americani, dei nativi alaskiani. degli ispanici 
e dei centro- e sud-americani divergono notevolmente dalle 
norme. Il complesso delle ricerche solleva seri dubbi sull'uso 
del Rorschach negli studi di psicoterapia e nei tribunali. 

Dubbi sul TAT 

Un altro strumento proiettivo - il test di appercezione tema- 
tica (Thematic Apperception Test, o TAT) - soileva forse altret- 
tanii dubbi del Rorschach. In questo metodo si chiede ai sog- 
getti di formulare un racconto sulla base delle scene ambigue 
rappresentate su 3 1 carte. A disposizione degli psicologi </i so- 
no scene che rappresentano un ragazzo che contempla un vio- 



IN PILLOLE 



■ Nonostante le regole d'interpretazione introdotte negli anni 
settanta con il sistema comprensivo, il test di Rorschach lascia 
ancora dubbi dì affidabilità e di validità. Psicologi diversi 
possono trarre conclusioni diverse da un unico test effettuato e 
non sempre si riescono a diagnosticare disturbi psichici. 

■ I test di appercezione tematica (TAT) vengono somministrati 
e interpretati senza uno standard preciso. Le carte che il 
soggetto in esame deve utilizzare come spunti per un racconto 
inventato sono frutto di una scelta dello psicologo, mentre la 
valutazione è fatta spesso sulla base dell'intuizione personale. 

■ Nel caso del metodo del disegno, il soggetto deve 
rappresentare una figura umana, case o alberi. Non esiste 
finora un metodo interpretativo fondato per collegare i segni 
tracciati sul foglio a caratteristiche della personalità o a 
disturbi psichiatrici. 

■ Dall'esame della letteratura, i metodi proiettivi non 
forniscono più informazioni rispetto ad altri metodi più pratici, 
come le interviste o i test oggettivi della personalità. 



Segni fuorviatiti 



Gli psicologi hanno a loro disposizione molti strumenti che si 
basano sul disegno, ma il test di disegno di una persona è 
tra i più popolari - soprattutto per esaminare bambini e 
adolescenti. Un clinico chiede al bambino di disegnare, nel 
modo che preferisce, qualcuno del suo sesso e poi qualcuno 
dell'altro sesso. [Una variante prevede che il bambino disegni 
una persona, una casa e un albero.) Gli utilizzatori di questo 
test ritengono che i disegni diano informazioni significative 
sulla personalità o sulla salute mentale del bambino. 

Nel disegno di un uomo, per esempio, i piedi piccoli 
starebbero a indicare insicurezza o instabilità; una testa 
piccola, inadeguatezza. Le mani o i denti grandi dovrebbero 
essere considerati segni di aggressività; le braccia corte, un 
segno di timidezza. E le caratteristiche femminili - come 
lunghe ciglia o labbra intensamente colorate - suggerirebbero 
una confusione di ruoli sessuali. 

Ma la ricerca ha ripetutamente dimostrato che questi 
«segni» non hanno pressoché alcuna relazione con la 
personalità o la malattia mentale. Gli scienziati hanno 
denunciato le interpretazioni dei segni come «la frenologia del 
ventesimo secolo», ricordando la pseudoscienza dell'Ottocento 
che pretendeva di localizzare le funzioni psichiche in zone 
prcise del cervello e di dedurre la personalità di un soggetto 
dalla disposizione dei rilievi presenti sul suo cranio. 

Eppure, il metodo fondato sui segni rimane di largo utilizzo. 
Alcuni psicologi sostengono addirittura di poter identificare gli 
abusi sessuali da alcuni segni chiave. Per esempio, nel disegno 
della bambina qui a destra, si pretenderebbe di identificare 
alcuni segni di violenza subita: una persona più vecchia della 
bambina, una mano nascosta in tasca, un grande naso e ; baffi. 
In realtà, la connessione tra questi segni e l'abuso sessuale 
rimane, a essere generosi, dubbia. 




lino, una donna sconvolta che si aggrappa a una porta aperta, 
e l'uomo e la donna ricordati all'inizio di questo articolo. Una 
carta, epitome dell'ambiguità, è totalmente bianca. 

Il TAT è stato definito «delizia dei clinici e incubo degli sta- 
tisi ici», in parte perché la sua somministrazione è di solito non 
standardizzata: clinici differenti presentano ai soggetti un nu- 
mero e una selezione differente di carte. Inoltre, la maggior 
parte dei clinici interpreta i racconti intuitivamente, invece di 
seguire una procedura di valutazione correttamente testata. 
Una recente indagine compiuta su 100 psicologi nordamerica- 
ni che praticano nei Tribunali dei minori e della famiglia ha 
scoperto che solo il 3 per cento si affidava a un sistema stan- 
dardizzato di valutazione del TAT. Sfortunatamente, alcuni 
dati fanno ritenere che l'interpretazione intuitiva del TAT por- 
ti spesso a sovrastimare la presenza di disturbi psichici. 

Esistono numerosi sistemi di valutazione standardizzata del 
TAT, ma alcuni dei più utilizzati mostrano una scarsa affidabi- 
lità nella ripetizione del test. Anche la loro validità è spesso di- 
scutibile; i risultati positivi trovati da alcuni studi sono spesso 
contraddetti da altre ricerche. Per esempio, numerosi sistemi di 
valutazione si sono dimostrati inidonei a distinguere gli indi- 
vidui normali da quelli psicotici o depressi. Pochi sistemi, infi- 
ne, si dimostrano realmente in grado di discemere alcuni 
aspetti della personalità - in particolare il bisogno di raggiun- 
gere risultati e la percezione che una persona ha degli altri 
(una proprietà chiamata «relazioni oggettuali»). Ma molte vol- 
te gli individui che mostrano un forte bisogno di raggiungere 
risultati non ottengono alte valutazioni nella misura dell'effet- 
tivo conseguimento di risultati, quindi l'efficacia di quella va- 
riabile nel prevedere il comportamento è forse limitata. Questi 
sistemi di valutazione mancano attualmente di norme e per- 
tanto non sono ancora pronti per un uso al di fuori delle situa- 
zioni di ricerca, ma meritano di essere ulteriormente studiati. 

Difetti nelle figure 

A differenza del Rorschach e del TAT, una terza metodica 
proiettiva prevede che siano i soggetti esaminati a disegnare 
delle figure. Molti di questi strumenti, come il popolare test di 
disegno di una persona, chiedono agli individui sotto esame di 
disegnare una figura umana; in altri si devono invece disegna- 
re case o alberi. Di solito i clinici interpretano gli schizzi colle- 
gando particolari «segni» - come le caratteristiche del corpo o 
dei vestiti - ad aspetti della personalità a o particolari disturbi 
psicologici. Per esempio, potrebbero associare gli occhi grandi 
alla paranoia, le cravatte lunghe all'aggressività sessuale, la 
mancanza di tratti del viso alla depressione, e così via. 

Come per gli altri metodi, la ricerca solleva seri dubbi su 
questi strumenti, soprattutto sulla concordanza degli psicologi 
nelle valutazioni. Quel che è peggio, non esiste alcuna prova a 
sostegno della validità di un metodo interpretativo fondato sui 
segni e non è affatto chiaro su che cosa si basino i clinici per 
collegare certi segni a particolari tratti della personalità o a 
diagnosi psichiatriche. E nemmeno ci sono prove coerenti che 
i segni che si pretende collegati all'abuso sessuale sui bambini 
(come la lingua o i genitali) rivelino davvero una storia di mo- 
lestie. L'unico risultato che ha trovato ripetute conferme è che, 
prese in gruppo, le persone che disegnano figure umane poco 
definite hanno alte percentuali di disturbi psicologici. D'altra 
parte, gli studi mostrano che i clinici tendono ad attribuire 
malattie mentali a molti individui normali che hanno sempli- 
cemente scarse abilità artistiche. 

Alcuni sostengono che i metodi fondati sui segni possono 
essere validi in mano a persone di lunga esperienza. Ma da 
uno studio effettuato da un gruppo di ricercatori è emerso che 
gli esperti che somministravano ìl test di disegno di una perso- 



AITRISTRUMFNHPRUIFTT1VI 



Qual è il punteggio? 

Gli psicologi possono scegliere tra decine di metodi 
proiettivi oltre al test di Rorschach, al TAT e ai disegni di 
figure. Come indica il campione qui sotto, alcuni escono 
bene dalle indagini svolte nelle ricerche, molti altri no. 

TEST DELLE MANI 

I soggetti vedono delle mani raffigurate in diverse 
posizioni e dicono che cosa secondo loro stanno facendo. 
Questo metodo è usato per individuare l'aggressività, 
l'ansia e altri tratti della personalità, ma non è stato ben 
studiato. 

ANALISI DELJJV SCRITTURA (GRAFOLOGIA) 

Gli interpreti si basano su alcuni particolari «segni» 
presenti nella scrittura di una persona per individuare le 
caratteristiche della personalità. Sebbene inefficace, 
questo metodo è utilizzato ancora nelle selezioni del 
personale. 

TEST Di LÙSCHER DEI COLORI 

Le persone mettono in ordine di preferenza delle carte 
colorate e questo rivelerebbe i tratti della personalità. La 
maggior parte degli studi non dà credito a questa tecnica. 

GIOCO CON BAMBOLE ANATOMICAMENTE COMPLETE 

La ricerca ha scoperto che i bambini che hanno subito 
abusi sessuali giocano spesso con i genitali delle bambole; 
questo comportamento, tuttavia, non è diagnostico perché 
lo sì trova anche tra molti bambini che non hanno subito 
violenza. 

STUDIO DI ROSENZWEIG 

Dopo una battuta provocatoria che un personaggio dei 
cartoni animati rivolge a un altro personaggio, il soggetto 
decide cosa dovrebbe rispondere il secondo personaggio. 
Questo strumento, messo in scena nei film Arancia 
meccanica, è in grado di prevedere l'aggressività nei 
bambini. 

TEST DI COMPLETAMENTO DI FRASE 

II soggetto termina una frase come «Se soltanto 
potessi...». La maggior parte delle versioni di questo test 
sono state poco studiate, ma una, elaborata da Jane 
Loevingerdella Washington University, si rivela efficace per 
misurare alcuni aspetti dello sviluppo dell'io, come la 
moralità e l'empatia. 

TESTDISZONDI 

I soggetti scelgono, tra diverse fotografie di pazienti con 
vari disturbi psichiatrici, quelle che piacciono di più e quelle 
che piacciono di meno. La scelta rivelerebbe qualcosa dei 
bisogni del soggetto, ma la ricerca ritiene priva di 
fondamento questa pretesa. 



1 OS 



LE SCIENZE 393 /maggio 2001 



www.lesrienze.it 



109 



OllANTnVFNGtlNn USATI 



GLI STRUMENTI 



Un sondaggio 

sulla diffusione dei test 

I 



n un'indagine del 1995, venne chiesto a 412 psicologi 
clinici selezionali a caso tra quelli iscrìtti all'American 



Psychological Associatori con quale frequenza 
utilizzassero nella loro attività diversi strumenti di 
valutazione proiettivi e non proiettivi, tra cui quelli elencati 
qui sotto. Gli strumenti proiettivi mettono le persone a 
confronto con immagini, parole od oggetti ambigui; quelli 
non proiettivi sono meno soggetti alla libera 
interpretazione. Il numero di psicologi clinici che utilizzano i 
metodi proiettivi potrebbe essere diminuito dal 1995 a oggi, 
ma queste tecniche rimangono di largo uso. 



tecniche 
proiettive 

Rorschach 43% 

Disegni di figure 39% 

Test di appercezione 

tematica [TAT] 34% 

Test di completamento 

di frasi 34% 

CAT [versione per 

bambini del TAT] S% 



lo usano sempre lo usano almeno 
o spesso occasionalmente 



82% 

80 

82% 
84% 
42% 



io usano sempre lo usano almeno 
o spesso occasionalmente 



58% 



tecniche 

non proiettive * 

WeschlerAdult 

Intelligence Scale [WAIS] 59% 

Minnesota Multiphasic 
lnventory-2 [MMPI-2] 

Wesch le r I nt eli i gen e e 

Scale for Children (WISC] 89% 

Beck Depression 

Inventory ?1% 21% 

* Quelli in elenco sono ) test non proiettivi più comunemente 
usati per determinare il 01 (WAIS), la personalità [MMPI-2], il 
01 dei bambini [WISC] e la depressione (Beck Depression 
Inventory). 



93% 



85% 



42% 



BIBLIOGRAFIA 



EXNER JOH N E„ The Rorschach: A Comprehensive System, Voi. 1: 
Bosrc Foundations, John Wìley 8c Sons, 1993. 
WOOD JAMES M.. NEZWORSKI TERESA, STEJSKAL WILLIAM J., The 
Comprehensive System for the Rorschach: A Criticai Examinatian, 
in «Psychological Science», ?, n. 1, pp, 3-10, 1996. 
GAR6 HOWARD, Swdying the Qinician: Judgment Research ondPsy- 
chological Assessment, American Psychological Associati on, 1998. 
GIESER LDN e STEIN MORRIS [a cura], Evocative tmages: The The- 
matìcApperception Test and t he Art o/ Project ion, American Psy- 
chological Association, 1999 

LILIENFELD SCOTT 0„ Pmjectwe Measures af Personality ond 
Psychopathology: How Well Do They Woric?, in «Skeptical Inqui- 
nar», 23, n. 5, pp. 32-39, 1999. 



na erano meno abiti dei neolaureati nel distinguere la norma- 
lità dalla anormalità psicologica. 

Alcuni sistemi di valutazione globale, che non si basano su 
segni, potrebbero risultare utili. Invece di presupporre una biu- 
nivocità tra una caratteristica del disegno e un frano della per- 
sonalità, gli psicologi cercano di arrivare a un'impressione ge- 
nerale sulle condizioni mentali di una persona attraverso l'esa- 
me congiunto di diversi aspetti delle figure. In uno studio su 
s;> bambini, un metodo di valutazione globale risultò DtSe per 
distinguere gli individui normali da quelli ansiosi o con distur- 
bi dell'umore. In un'aìtra indagine, l'interpretazione globale 
del test di disegno di una persona distinse correttamente 54 
bambini e adolescenti normali da quelli aggressivi o disubbi- 
dienti. L'approccio globale può funzionare meglio di quello 
fondato sui segni perché l'aggregazione dell'informazione può 
eliminare il «rumore» prodono da variabili fuorviami o gene- 
ratrici di informazione incompleta. 

Il nostro esame della letteratura, inoltre, indica che il Ror- 
schach, il TAT, molte tecniche proiettive e i disegni di figure 
umane, sono utili solo in circostanze limitate. Anche quando 
misurano effettivamente ciò che sostengono di misurare, i me- 
todi mancano di «validità incrementale»: raramente danno 
maggiore informazione rispetto ad altri sistemi più pratici, co- 
me le interviste o i test oggettivi della personalità, basati su ri- 
sposte a domande relativamente nette e precise, come «Spesso 
mi capita di immaginare di farmi del male: vero o falso?». La 
debolezza dei test proiettivi rende difficilmente giustificabili i 
costi in termini di denaro e di tempo. 

Che cosa fare? 

Alcuni professionisti della salute mentale non condividono 
le nostre conclusioni. A loro dire, gli strumenti proiettivi sono 
stati a lungo usati proficuamente e, se somministrati e inter- 
pretati correttamente, possono penetrare oltre il velo autopro- 
tettivo steso dai soggetti e fornire un quadro dei più profondi 
recessi della mente. 1 critici sostengono anche che abbiamo 
messo in evidenza i dati negativi escludendo quelli positivi. 

Ma noi continuiamo a credere nelle nostre conclusioni. In 
effetti, per quanto negativi siano nel loro complesso, i risultati 
delle nostre ricerche servono forse a contrastare un quadro 
delle tecniche proiettive reso eccessivamente roseo dal cosid- 
detto effetto archivio. Come è noto, i giornali scientifici tendo- 
no a pubblicare con maggiore frequenza i successi di una pro- 
cedura che i suoi fallimenti. Di conseguenza, i ricercatori fini- 
scono spesso con archiviare tranquillamente i loro dati negati- 
vi, che rischiano di non vedere mai più la luce. 

Troviamo sconcertante che gli psicologi somministrino co- 
munemente strumenti proiettivi in situazioni per le quali tali 
strumenti non hanno ricevuto una convalida da studi multipli: 
troppe persone rischiano dì essere penalizzate da diagnosi er- 
rate che possono influenzare i piani terapeutici, le ordinanze di 
custodia o le decisioni dei tribunali. Sulla base dei nostri risul- 
tati, chiediamo con forza che gli psicologi ridimensionino l'u- 
so della maggior parte delle tecniche proiettive e, nel caso vo- 
gliano utilizzare questi strumenti, si limitino a valutare e inter- 
pretare solo quel piccolo numero di variabili di cui sì è dimo- 
strata l'affidabilità. 

I nostri risultati offrono anche una lezione più ampia per 
chi pratica nelle cliniche, per gli studenti di psicologia e anche 
per il grande pubhlico: perfino i professionisti di più lunga 
esperienza possono essere ingannati dalle loro intuizioni e dal- 
la loro fiducia in strumenti la cui efficacia non trova conforto 
nei dati. Quando un numero consistente di ricerche dimostra 
che le vecchie intuizioni sono errate, è tempo di cambiare il 
proprio modo di vedere le cose. 



no 



LE SCIENZE 393 /maggio 2001